Autoren:
(1) Zhihang Ren, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);
(2) Jefferson Ortega, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);
(3) Yifan Wang, University of California, Berkeley und diese Autoren haben zu gleichen Teilen zu dieser Arbeit beigetragen (E-Mail: [email protected]);
(4) Zhimin Chen, University of California, Berkeley (E-Mail: [email protected]);
(5) Yunhui Guo, University of Texas at Dallas (E-Mail: [email protected]);
(6) Stella X. Yu, University of California, Berkeley und University of Michigan, Ann Arbor (E-Mail: [email protected]);
(7) David Whitney, University of California, Berkeley (E-Mail: [email protected]).
In dieser Studie haben wir den ersten kontextbasierten großen Videodatensatz, VEATIC , zur kontinuierlichen Valenz- und Erregungsvorhersage vorgeschlagen. Verschiedene Visualisierungen zeigen die Vielfalt unseres Datensatzes und die Konsistenz unserer Anmerkungen. Wir haben auch einen einfachen Basisalgorithmus zur Lösung dieser Herausforderung vorgeschlagen. Empirische Ergebnisse belegen die Wirksamkeit unserer vorgeschlagenen Methode und des VEATIC-Datensatzes.
Dieses Dokument ist auf Arxiv unter der CC 4.0-Lizenz verfügbar .