VCA Daten

Trajectory Prediction Benchmark

Bestehenden Benchmark-Datensätzen, die auf die Gesamtleistung von Modellen zur Trajektorienvorhersage abzielen, fehlt die Möglichkeit, Einblick in das Verhalten eines Modells unter bestimmten Bedingungen zu gewinnen. Zu diesem Zweck wird ein neuer Benchmark vorgeschlagen, der im Vergleich zu bestehenden Benchmarks eine komplementäre Rolle übernehmen soll. Er besteht aus synthetisch generierten und modifizierten Trajektorien in der realen Welt aus etablierten Datensätzen mit szenarienabhängigen Aufteilungen in Test- und Trainingsdaten. Der Benchmark-Datensatz bietet eine Hierarchie von drei Inferenzaufgaben, nämlich Repräsentationslernen, Entrauschen und Vorhersage, die sich aus mehreren Testfällen zusammensetzen, die auf spezifische Aspekte eines bestimmten maschinellen Lernmodells abzielen. Dies ermöglicht eine differenzierte Bewertung des Verhaltens und der Verallgemeinerungsfähigkeiten des Modells. Als Ergebnis wird eine Zustandsprüfung für Einzeltrajektorienmodelle bereitgestellt, die darauf abzielt, Fehlerfälle zu verhindern und Anforderungen zur Verbesserung der Modellierungsfähigkeiten hervorzuheben.

Die Daten sowie weitere Informationen können über GitHub heruntergeladen werden.



Multispectral Action Dataset

Der "Multispectral Action Dataset" des IOSB ist eine Datenbank mit Outdoor-Szenen mit verschiedenen gewalttätigen und gewaltfreien Aktionen, die an einem sonnigen Sommertag aus zwei verschiedenen Ansichten von IR- bzw. Fernsehkameras aufgenommen wurden.

Für das Infrarotspektrum wurden zwei AXIS Q1922 Kameras mit einem Spektralbereich von 8 - 14 µm (langwelliges IR) und 10 mm Brennweite für die 0°-Kamera und 35 mm für die 90°-Kamera verwendet. Für das sichtbare Spektrum wurden eine AXIS Q5534 und eine AXIS Q1755 Kamera für die 0°- bzw. 90°-Ansicht verwendet.

Die nachbearbeiteten Bilder haben eine Auflösung von 800×600 px für die TV-Daten und 640×480 px für die IR-Daten mit einer Bildrate von 25 fps. Der Datensatz zeigt zehn Personen (8 männlich, 2 weiblich im Alter von 31.2±5.7 Jahren), die sechs verschiedene Aktionen ausführen, nämlich filmen mit einem Smartphone (Film), Schlagen mit einem Stock auf einen Gegenstand (Hit), Treten eines Gegenstandes (Kick), Zeigen mit dem Finger auf etwas (Point), Werfen eines Gegenstandes (Throw), Winken mit beiden Armen (Wave). Darüber hinaus wurde eine Zurückweisungsklasse (Other) aufgenommen, bei der die Personen stehen, ohne eine bestimmte Aktion auszuführen.

Der Download-Link und das Passwort werden nach dem Senden einer Anfrage an ann-kristin.grosselfinger@iosb.fraunhofer.de zur Verfügung gestellt.

 

Bitte geben Sie in allen Publikationen, in denen der Datensatz verwendet wird, die Quelle des Datensatzes an, indem Sie auf das folgende Paper verweisen:

  • Hilsenbeck B., Münch D., Grosselfinger A., Hübner W., Arens M.: „Action recognition in the longwave infrared and the visible spectrum using Hough forests“, Proc. IEEE International Symposium on Multimedia (ISM), 2016