この論文はCC 4.0ライセンスの下でarxivで公開されています。
著者:
(1)カリフォルニア大学バークレー校のZhihang Renとこれらの著者らは本研究に等しく貢献した(電子メール:[email protected])。
(2)ジェファーソン・オルテガ、カリフォルニア大学バークレー校およびこれらの著者らは、本研究に等しく貢献した(電子メール:[email protected])。
(3)Yifan Wang、カリフォルニア大学バークレー校およびこれらの著者らは、本研究に等しく貢献した(Eメール:[email protected])。
(4)カリフォルニア大学バークレー校のZhimin Chen氏(Eメール:[email protected])
(5)ユンフイ・グオ、テキサス大学ダラス校(Eメール:[email protected])
(6)ステラ・X・ユー、カリフォルニア大学バークレー校およびミシガン大学アナーバー校(Eメール:[email protected])
(7)デイビッド・ホイットニー、カリフォルニア大学バークレー校(Eメール:[email protected])。
合計で、VEATIC データセットのビデオに注釈を付けた参加者は 192 名でした。84 名の参加者がビデオ ID 0 ~ 82 に注釈を付けました。108 名の参加者が、VEATIC データセットの計画に先立ってビデオ ID 83 ~ 123 に注釈を付けました。特に、51 名の参加者がビデオ ID 83 ~ 94 に注釈を付け、25 名の参加者がビデオ ID 95 ~ 97 に注釈を付け、32 名の参加者がビデオ ID 98 ~ 123 に注釈を付けました。
VEATIC データセットのもう 1 つの目新しい点は、対話するキャラクターのビデオと、同じビデオ内の別のキャラクターの評価が含まれていることです。これらのビデオは、ビデオ ID が 98 ~ 123 のビデオです。連続する各ビデオ ペアでは、ビデオ フレームはまったく同じですが、連続的な感情評価は、選択された異なるキャラクターに基づいて注釈が付けられます。図 11 に例を示します。この研究では、この注釈付けプロセスを最初に提案します。これは、キャラクター間の対話とまったく同じコンテキスト情報を与えられた場合に、モデルが選択されたキャラクターの感情を学習するかどうかを将来のアルゴリズムでテストする方法を提供するためです。優れた感情認識アルゴリズムは、この複雑な状況に対処できるはずです。
この論文はCC 4.0ライセンスの下でarxivで公開されています。