paint-brush
VEATIC: Seguimiento de emociones y afectos basado en videos en un conjunto de datos de contexto: detalles de anotacionespor@kinetograph
145 lecturas

VEATIC: Seguimiento de emociones y afectos basado en videos en un conjunto de datos de contexto: detalles de anotaciones

Demasiado Largo; Para Leer

En este artículo, los investigadores presentan el conjunto de datos VEATIC para el reconocimiento de los afectos humanos, abordando las limitaciones de los conjuntos de datos existentes y permitiendo la inferencia basada en el contexto.
featured image - VEATIC: Seguimiento de emociones y afectos basado en videos en un conjunto de datos de contexto: detalles de anotaciones
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

Este documento está disponible en arxiv bajo licencia CC 4.0.

Autores:

(1) Zhihang Ren, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);

(2) Jefferson Ortega, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);

(3) Yifan Wang, Universidad de California, Berkeley y estos autores contribuyeron igualmente a este trabajo (correo electrónico: [email protected]);

(4) Zhimin Chen, Universidad de California, Berkeley (correo electrónico: [email protected]);

(5) Yunhui Guo, Universidad de Texas en Dallas (correo electrónico: [email protected]);

(6) Stella X. Yu, Universidad de California, Berkeley y Universidad de Michigan, Ann Arbor (correo electrónico: [email protected]);

(7) David Whitney, Universidad de California, Berkeley (correo electrónico: [email protected]).

Tabla de enlaces

8. Detalles de anotación

En total, tuvimos 192 participantes que anotaron los videos en el conjunto de datos VEATIC. Ochenta y cuatro participantes anotaron las identificaciones de vídeo del 0 al 82. Ciento ocho participantes anotaron las ID de vídeo 83-123 antes de la planificación del conjunto de datos VEATIC. En particular, cincuenta y un participantes anotaron las ID de video 83-94, veinticinco participantes anotaron las ID de video 95-97 y 32 participantes anotaron las ID de video 98-123.


Otra novedad del conjunto de datos VEATIC es que contiene videos con personajes que interactúan y calificaciones para personajes separados en el mismo video. Estos videos son aquellos con ID de video 98-123. Para cada par de vídeos consecutivos, los fotogramas de vídeo son exactamente iguales, pero las clasificaciones de emociones continuas se anotan en función de los diferentes caracteres seleccionados. La Figura 11 muestra un ejemplo. En este estudio, primero proponemos este proceso de anotación porque proporciona a los algoritmos futuros una forma de probar si los modelos aprenden la emoción de los personajes seleccionados dadas las interacciones entre personajes y exactamente la misma información de contexto. Un buen algoritmo de reconocimiento de emociones debería hacer frente a esta complicada situación.


Este documento está disponible en arxiv bajo licencia CC 4.0.