저자:
(1) 캘리포니아 대학교 버클리 캠퍼스의 Zhihang Ren과 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(2) 캘리포니아 대학교 버클리 캠퍼스의 Jefferson Ortega와 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(3) University of California, Berkeley의 Yifan Wang과 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(4) 캘리포니아 버클리 대학교 Zhimin Chen(이메일: [email protected]);
(5) 댈러스 텍사스 대학교 Yunhui Guo (이메일: [email protected]);
(6) Stella X. Yu, University of California, Berkeley 및 University of Michigan, Ann Arbor (이메일: [email protected]);
(7) David Whitney, University of California, Berkeley (이메일: [email protected]).
본 연구에서는 지속적인 Valence 및 Arousal 예측을 위해 최초의 상황 기반 대규모 비디오 데이터 세트인 VEATIC을 제안했습니다. 다양한 시각화는 데이터 세트의 다양성과 주석의 일관성을 보여줍니다. 우리는 또한 이 문제를 해결하기 위해 간단한 기본 알고리즘을 제안했습니다. 경험적 결과는 제안된 방법과 VEATIC 데이터세트의 효율성을 입증합니다.
이 문서는 CC 4.0 라이선스에 따라 arxiv에서 볼 수 있습니다.