Este documento está disponible en arxiv bajo licencia CC 4.0.
Autores:
(1) Zhihang Ren, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(2) Jefferson Ortega, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(3) Yifan Wang, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);
(4) Zhimin Chen, Universidad de California, Berkeley (correo electrónico: [email protected]);
(5) Yunhui Guo, Universidad de Texas en Dallas (correo electrónico: [email protected]);
(6) Stella X. Yu, Universidad de California, Berkeley y Universidad de Michigan, Ann Arbor (correo electrónico: [email protected]);
(7) David Whitney, Universidad de California, Berkeley (correo electrónico: [email protected]).
En total, tuvimos 192 participantes que anotaron los videos en el conjunto de datos VEATIC. Ochenta y cuatro participantes anotaron las identificaciones de vídeo del 0 al 82. Ciento ocho participantes anotaron las ID de vídeo 83-123 antes de la planificación del conjunto de datos VEATIC. En particular, cincuenta y un participantes anotaron las ID de video 83-94, veinticinco participantes anotaron las ID de video 95-97 y 32 participantes anotaron las ID de video 98-123.
Otra novedad del conjunto de datos VEATIC es que contiene videos con personajes que interactúan y calificaciones para personajes separados en el mismo video. Estos videos son aquellos con ID de video 98-123. Para cada par de vídeos consecutivos, los fotogramas de vídeo son exactamente iguales, pero las clasificaciones de emociones continuas se anotan en función de los diferentes caracteres seleccionados. La Figura 11 muestra un ejemplo. En este estudio, primero proponemos este proceso de anotación porque proporciona a los algoritmos futuros una forma de probar si los modelos aprenden la emoción de los personajes seleccionados dadas las interacciones entre personajes y exactamente la misma información de contexto. Un buen algoritmo de reconocimiento de emociones debería hacer frente a esta complicada situación.
Este documento está disponible en arxiv bajo licencia CC 4.0.