Auteurs:
(1) Zhihang Ren, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(2) Jefferson Ortega, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(3) Yifan Wang, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(4) Zhimin Chen, Université de Californie, Berkeley (E-mail : [email protected]) ;
(5) Yunhui Guo, Université du Texas à Dallas (E-mail : [email protected]) ;
(6) Stella X. Yu, Université de Californie, Berkeley et Université du Michigan, Ann Arbor (E-mail : [email protected]) ;
(7) David Whitney, Université de Californie, Berkeley (E-mail : [email protected]).
Dans cette étude, nous avons proposé le premier grand ensemble de données vidéo basé sur le contexte, VEATIC , pour la prédiction continue de la valence et de l'éveil. Diverses visualisations montrent la diversité de notre jeu de données et la cohérence de nos annotations. Nous avons également proposé un algorithme de base simple pour résoudre ce défi. Les résultats empiriques prouvent l'efficacité de notre méthode proposée et de l'ensemble de données VEATIC.
Cet article est disponible sur arxiv sous licence CC 4.0.