Jan 01, 1970
著者:
(1)カリフォルニア大学バークレー校のZhihang Renとこれらの著者らは本研究に等しく貢献した(電子メール:[email protected])。
(2)ジェファーソン・オルテガ、カリフォルニア大学バークレー校およびこれらの著者らは、本研究に等しく貢献した(電子メール:[email protected])。
(3)Yifan Wang、カリフォルニア大学バークレー校およびこれらの著者らは、本研究に等しく貢献した(Eメール:[email protected])。
(4)カリフォルニア大学バークレー校のZhimin Chen氏(Eメール:[email protected])
(5)ユンフイ・グオ、テキサス大学ダラス校(Eメール:[email protected])
(6)ステラ・X・ユー、カリフォルニア大学バークレー校およびミシガン大学アナーバー校(Eメール:[email protected])
(7)デイビッド・ホイットニー、カリフォルニア大学バークレー校(Eメール:[email protected])。
本研究では、連続的な感情価と覚醒度の予測を目的とした、初めてのコンテキストベースの大規模ビデオデータセットVEATICを提案しました。さまざまな視覚化により、データセットの多様性と注釈の一貫性が示されます。また、この課題を解決するためのシンプルなベースラインアルゴリズムも提案しました。実験結果により、提案手法と VEATIC データセットの有効性が証明されました。
この論文はCC 4.0ライセンスの下でarxivで公開されています。