Autores:
(1) Zhihang Ren, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(2) Jefferson Ortega, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(3) Yifan Wang, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(4) Zhimin Chen, Universidad de California, Berkeley (correo electrónico: [email protected]);
(5) Yunhui Guo, Universidad de Texas en Dallas (correo electrónico: [email protected]);
(6) Stella X. Yu, Universidad de California, Berkeley y Universidad de Michigan, Ann Arbor (correo electrónico: [email protected]);
(7) David Whitney, Universidad de California, Berkeley (correo electrónico: [email protected]).
En este estudio, propusimos el primer gran conjunto de datos de video basado en contexto, VEATIC , para la predicción continua de valencia y excitación. Varias visualizaciones muestran la diversidad de nuestro conjunto de datos y la coherencia de nuestras anotaciones. También propusimos un algoritmo de referencia simple para resolver este desafío. Los resultados empíricos demuestran la eficacia de nuestro método propuesto y del conjunto de datos VEATIC.
Este documento está disponible en arxiv bajo licencia CC 4.0.