paint-brush
VEATIC: Videobasiertes Emotions- und Affekt-Tracking im Kontextdatensatz: Diskussionvon@kinetograph
166 Lesungen

VEATIC: Videobasiertes Emotions- und Affekt-Tracking im Kontextdatensatz: Diskussion

Zu lang; Lesen

In diesem Artikel stellen Forscher den VEATIC-Datensatz zur Erkennung menschlicher Affekte vor, der sich mit den Einschränkungen vorhandener Datensätze befasst und kontextbasierte Schlussfolgerungen ermöglicht.
featured image - VEATIC: Videobasiertes Emotions- und Affekt-Tracking im Kontextdatensatz: Diskussion
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

Dieses Dokument ist auf Arxiv unter der CC 4.0-Lizenz verfügbar.

Autoren:

(1) Zhihang Ren, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);

(2) Jefferson Ortega, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);

(3) Yifan Wang, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);

(4) Zhimin Chen, University of California, Berkeley (E-Mail: [email protected]);

(5) Yunhui Guo, University of Texas at Dallas (E-Mail: [email protected]);

(6) Stella X. Yu, University of California, Berkeley und University of Michigan, Ann Arbor (E-Mail: [email protected]);

(7) David Whitney, University of California, Berkeley (E-Mail: [email protected]).

Linktabelle

5. Diskussion

Das Verständnis, wie Menschen die Emotionen anderer ableiten, ist für Forscher von entscheidender Bedeutung, um soziale Kognition zu verstehen. Während Psychophysiker Experimente durchführen, benötigen sie spezifische Reizsätze, um Experimente zu entwerfen. Unter den veröffentlichten Datensätzen gibt es derzeit jedoch keinen kontextbasierten Videodatensatz, der kontinuierliche Valenz- und Erregungsbewertungen enthält. Das Fehlen dieser Art von Datensätzen hindert Forscher auch daran, Computer-Vision-Algorithmen für die entsprechenden Aufgaben zu entwickeln. Unser vorgeschlagener VEATIC-Datensatz füllt diese wichtige Lücke im Bereich der Computer-Vision und wird für psychophysische Studien zum Verständnis der Emotionserkennung von Nutzen sein.


Während der Datenerfassung verfolgten und bewerteten die Teilnehmer kontinuierlich die Emotionen der Zielfiguren in den Videoclips, was sich von allgemeinen psychophysischen Experimenten unterscheidet, bei denen die Antworten erst mit Verzögerung erfasst werden. Dieses Design in unserem Datensatz war entscheidend, um die Echtzeit-Emotionsverarbeitung nachzuahmen, die stattfindet, wenn Menschen Emotionen in ihrem Alltag verarbeiten. Darüber hinaus ist die Emotionsverarbeitung kein unmittelbarer Prozess und beruht stark auf der zeitlichen Ansammlung von Informationen im Laufe der Zeit, um genaue Rückschlüsse auf die Emotionen anderer ziehen zu können.


Die Stärke des VEATIC-Datensatzes besteht darin, dass er nachahmt, wie Menschen Emotionen in der realen Welt wahrnehmen: kontinuierlich und in Gegenwart kontextbezogener Informationen sowohl im zeitlichen als auch im räumlichen Bereich. Ein derart umfangreicher Datensatz ist für zukünftige Computer-Vision-Modelle von entscheidender Bedeutung und kann die Grenzen dessen erweitern, was aktuelle Modelle leisten können. Mit der Erstellung umfangreicherer Datensätze wie VEATIC könnte es für zukünftige Computer-Vision-Modelle möglich sein, Emotionen in Echtzeit wahrzunehmen, während sie mit Menschen interagieren.