Autores:
(1) Zhihang Ren, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);
(2) Jefferson Ortega, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);
(3) Yifan Wang, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);
(4) Zhimin Chen, Universidade da Califórnia, Berkeley (E-mail: [email protected]);
(5) Yunhui Guo, Universidade do Texas em Dallas (E-mail: [email protected]);
(6) Stella X. Yu, Universidade da Califórnia, Berkeley e Universidade de Michigan, Ann Arbor (E-mail: [email protected]);
(7) David Whitney, Universidade da Califórnia, Berkeley (E-mail: [email protected]).
Neste estudo, propusemos o primeiro grande conjunto de dados de vídeo baseado em contexto, VEATIC , para predição contínua de valência e excitação. Várias visualizações mostram a diversidade do nosso conjunto de dados e a consistência das nossas anotações. Também propusemos um algoritmo de linha de base simples para resolver esse desafio. Os resultados empíricos comprovam a eficácia do nosso método proposto e do conjunto de dados VEATIC.
Este artigo está disponível no arxiv sob licença CC 4.0.