paint-brush
VEATIC: संदर्भ डेटासेट में वीडियो-आधारित भावना और प्रभाव ट्रैकिंग: एनोटेशन विवरणद्वारा@kinetograph
145 रीडिंग

VEATIC: संदर्भ डेटासेट में वीडियो-आधारित भावना और प्रभाव ट्रैकिंग: एनोटेशन विवरण

बहुत लंबा; पढ़ने के लिए

इस शोधपत्र में, शोधकर्ताओं ने मानवीय प्रभाव पहचान के लिए VEATIC डाटासेट प्रस्तुत किया है, जो मौजूदा डाटासेट की सीमाओं को संबोधित करता है, तथा संदर्भ-आधारित अनुमान को सक्षम बनाता है।
featured image - VEATIC: संदर्भ डेटासेट में वीडियो-आधारित भावना और प्रभाव ट्रैकिंग: एनोटेशन विवरण
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।

लेखक:

(1) झिहांग रेन, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(2) जेफरसन ऑर्टेगा, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(3) यिफान वांग, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(4) झिमिन चेन, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]);

(5) युनहुई गुओ, यूनिवर्सिटी ऑफ टेक्सास एट डलास (ईमेल: [email protected]);

(6) स्टेला एक्स. यू, कैलिफोर्निया विश्वविद्यालय, बर्कले और मिशिगन विश्वविद्यालय, एन आर्बर (ईमेल: [email protected]);

(7) डेविड व्हिटनी, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]).

लिंक की तालिका

8. एनोटेशन विवरण

कुल मिलाकर, हमारे पास 192 प्रतिभागी थे जिन्होंने VEATIC डेटासेट में वीडियो एनोटेट किए। 84 प्रतिभागियों ने वीडियो आईडी 0-82 एनोटेट किए। एक सौ आठ प्रतिभागियों ने VEATIC डेटासेट की योजना बनाने से पहले वीडियो आईडी 83-123 एनोटेट किए। विशेष रूप से, पचास-एक प्रतिभागियों ने वीडियो आईडी 83-94 एनोटेट किए, पच्चीस प्रतिभागियों ने वीडियो आईडी 95-97 एनोटेट किए, और 32 प्रतिभागियों ने वीडियो आईडी 98-123 एनोटेट किए।


VEATIC डेटासेट की एक और नवीनता यह है कि इसमें एक ही वीडियो में अलग-अलग पात्रों के लिए परस्पर क्रिया करने वाले पात्रों और रेटिंग वाले वीडियो शामिल हैं। ये वीडियो वे हैं जिनकी वीडियो आईडी 98-123 है। प्रत्येक लगातार वीडियो जोड़ी के लिए, वीडियो फ़्रेम बिल्कुल समान हैं, लेकिन निरंतर भावना रेटिंग अलग-अलग चयनित पात्रों के आधार पर एनोटेट की जाती हैं। चित्र 11 एक उदाहरण दिखाता है। इस अध्ययन में, हम सबसे पहले इस एनोटेशन प्रक्रिया का प्रस्ताव करते हैं क्योंकि यह भविष्य के एल्गोरिदम को यह जांचने का एक तरीका देता है कि क्या मॉडल पात्रों और बिल्कुल समान संदर्भ जानकारी के बीच बातचीत के आधार पर चयनित पात्रों की भावना को सीखते हैं। एक अच्छा भावना पहचान एल्गोरिदम इस जटिल स्थिति से निपटना चाहिए।


यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।