이 문서는 CC 4.0 라이선스에 따라 arxiv에서 볼 수 있습니다.
저자:
(1) 캘리포니아 대학교 버클리 캠퍼스의 Zhihang Ren과 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(2) 캘리포니아 대학교 버클리 캠퍼스의 Jefferson Ortega와 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(3) University of California, Berkeley의 Yifan Wang과 이들 저자는 이 연구에 동등하게 기여했습니다(이메일: [email protected]).
(4) 캘리포니아 버클리 대학교 Zhimin Chen(이메일: [email protected]);
(5) 댈러스 텍사스 대학교 Yunhui Guo (이메일: [email protected]);
(6) Stella X. Yu, University of California, Berkeley 및 University of Michigan, Ann Arbor (이메일: [email protected]);
(7) David Whitney, University of California, Berkeley (이메일: [email protected]).
총 192명의 참가자가 VEATIC 데이터세트의 동영상에 주석을 달았습니다. 84명의 참가자가 비디오 ID 0-82에 주석을 달았습니다. 108명의 참가자는 VEATIC 데이터 세트를 계획하기 전에 비디오 ID 83-123에 주석을 달았습니다. 특히, 51명의 참가자는 비디오 ID 83-94에 주석을 달았고, 25명의 참가자는 비디오 ID 95-97에 주석을 달았으며, 32명의 참가자는 비디오 ID 98-123에 주석을 달았습니다.
VEATIC 데이터세트의 또 다른 참신함은 상호 작용하는 캐릭터와 동일한 비디오의 개별 캐릭터에 대한 평가가 포함된 비디오가 포함되어 있다는 것입니다. 이 동영상은 동영상 ID가 98~123인 동영상입니다. 각 연속 비디오 쌍에 대해 비디오 프레임은 정확히 동일하지만 연속 감정 등급은 선택한 서로 다른 캐릭터를 기반으로 주석이 추가됩니다. 그림 11은 예를 보여줍니다. 이 연구에서 우리는 먼저 이 주석 프로세스를 제안합니다. 이는 모델이 캐릭터 간의 상호 작용과 정확히 동일한 맥락 정보를 바탕으로 선택한 캐릭터의 감정을 학습하는지 여부를 테스트할 수 있는 방법을 미래의 알고리즘에 제공하기 때문입니다. 좋은 감정 인식 알고리즘은 이러한 복잡한 상황을 처리해야 합니다.
이 문서는 CC 4.0 라이선스에 따라 arxiv에서 볼 수 있습니다.