该论文可在 arxiv 上根据 CC 4.0 许可获取。
作者:
(1)加州大学伯克利分校的任志航和本文其他作者对本文的贡献相同(Email: [email protected]);
(2)加州大学伯克利分校的 Jefferson Ortega 和本文其他作者对本文做出了同等贡献(电子邮箱:[email protected]);
(3)加州大学伯克利分校的 Yifan Wang 和本文其他作者对本文的贡献相同(电子邮箱:[email protected]);
(4)陈志敏,加州大学伯克利分校(电邮:[email protected]);
(5)郭云晖,德克萨斯大学达拉斯分校(电子邮箱:[email protected])
(6)Stella X. Yu,加州大学伯克利分校和密歇根大学安娜堡分校(电子邮箱:[email protected])
(7)加州大学伯克利分校的 David Whitney(电子邮箱:[email protected])。
总共有 192 名参与者对 VEATIC 数据集中的视频进行了注释。84 名参与者对视频 ID 0-82 进行了注释。在规划 VEATIC 数据集之前,108 名参与者对视频 ID 83-123 进行了注释。具体来说,51 名参与者对视频 ID 83-94 进行了注释,25 名参与者对视频 ID 95-97 进行了注释,32 名参与者对视频 ID 98-123 进行了注释。
VEATIC 数据集的另一个新颖之处在于,它包含具有互动角色的视频以及同一视频中不同角色的评分。这些视频是视频 ID 为 98-123 的视频。对于每个连续的视频对,视频帧完全相同,但连续的情绪评分是根据不同的选定角色进行注释的。图 11 显示了一个例子。在本研究中,我们首先提出了这种注释过程,因为它为未来的算法提供了一种方法来测试模型是否能够在给定角色之间的互动和完全相同的上下文信息的情况下学习选定角色的情绪。一个好的情绪识别算法应该处理这种复杂的情况。