यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।
लेखक:
(1) झिहांग रेन, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);
(2) जेफरसन ऑर्टेगा, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);
(3) यिफान वांग, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);
(4) झिमिन चेन, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]);
(5) युनहुई गुओ, यूनिवर्सिटी ऑफ टेक्सास एट डलास (ईमेल: [email protected]);
(6) स्टेला एक्स. यू, कैलिफोर्निया विश्वविद्यालय, बर्कले और मिशिगन विश्वविद्यालय, एन आर्बर (ईमेल: [email protected]);
(7) डेविड व्हिटनी, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]).
कुल मिलाकर, हमारे पास 192 प्रतिभागी थे जिन्होंने VEATIC डेटासेट में वीडियो एनोटेट किए। 84 प्रतिभागियों ने वीडियो आईडी 0-82 एनोटेट किए। एक सौ आठ प्रतिभागियों ने VEATIC डेटासेट की योजना बनाने से पहले वीडियो आईडी 83-123 एनोटेट किए। विशेष रूप से, पचास-एक प्रतिभागियों ने वीडियो आईडी 83-94 एनोटेट किए, पच्चीस प्रतिभागियों ने वीडियो आईडी 95-97 एनोटेट किए, और 32 प्रतिभागियों ने वीडियो आईडी 98-123 एनोटेट किए।
VEATIC डेटासेट की एक और नवीनता यह है कि इसमें एक ही वीडियो में अलग-अलग पात्रों के लिए परस्पर क्रिया करने वाले पात्रों और रेटिंग वाले वीडियो शामिल हैं। ये वीडियो वे हैं जिनकी वीडियो आईडी 98-123 है। प्रत्येक लगातार वीडियो जोड़ी के लिए, वीडियो फ़्रेम बिल्कुल समान हैं, लेकिन निरंतर भावना रेटिंग अलग-अलग चयनित पात्रों के आधार पर एनोटेट की जाती हैं। चित्र 11 एक उदाहरण दिखाता है। इस अध्ययन में, हम सबसे पहले इस एनोटेशन प्रक्रिया का प्रस्ताव करते हैं क्योंकि यह भविष्य के एल्गोरिदम को यह जांचने का एक तरीका देता है कि क्या मॉडल पात्रों और बिल्कुल समान संदर्भ जानकारी के बीच बातचीत के आधार पर चयनित पात्रों की भावना को सीखते हैं। एक अच्छा भावना पहचान एल्गोरिदम इस जटिल स्थिति से निपटना चाहिए।
यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।