paint-brush
VEATIC:基于视频的情境数据集中的情感和影响跟踪:结论经过@kinetograph
116 讀數

VEATIC:基于视频的情境数据集中的情感和影响跟踪:结论

太長; 讀書

在本文中,研究人员引入了用于人类情感识别的 VEATIC 数据集,解决了现有数据集的局限性,实现了基于上下文的推理。
featured image - VEATIC:基于视频的情境数据集中的情感和影响跟踪:结论
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

作者:

(1)加州大学伯克利分校的任志航和本文其他作者对本文的贡献相同(Email: [email protected]);

(2)加州大学伯克利分校的 Jefferson Ortega 和本文其他作者对本文做出了同等贡献(电子邮箱:[email protected]);

(3)加州大学伯克利分校的 Yifan Wang 和本文其他作者对本文的贡献相同(电子邮箱:[email protected]);

(4)陈志敏,加州大学伯克利分校(电邮:[email protected]);

(5)郭云晖,德克萨斯大学达拉斯分校(电子邮箱:[email protected]

(6)Stella X. Yu,加州大学伯克利分校和密歇根大学安娜堡分校(电子邮箱:[email protected]

(7)加州大学伯克利分校的 David Whitney(电子邮箱:[email protected])。

链接表

六,结论

在本研究中,我们提出了第一个基于上下文的大型视频数据集VEATIC ,用于连续效价和唤醒预测。各种可视化显示了我们数据集的多样性和注释的一致性。我们还提出了一种简单的基线算法来解决这一挑战。实证结果证明了我们提出的方法和 VEATIC 数据集的有效性。