paint-brush
VEATIC: परिचितता और आनंद रेटिंग और संदर्भद्वारा@kinetograph
217 रीडिंग

VEATIC: परिचितता और आनंद रेटिंग और संदर्भ

द्वारा Kinetograph: The Video Editing Technology Publication
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture

Kinetograph: The Video Editing Technology Publication

@kinetograph

The Kinetograph's the 1st motion-picture camera. At Kinetograph.Tech, we cover...

11 मिनट read2024/05/27
Read on Terminal Reader
Read this story in a terminal
Print this story

बहुत लंबा; पढ़ने के लिए

इस शोधपत्र में, शोधकर्ताओं ने मानवीय प्रभाव पहचान के लिए VEATIC डाटासेट प्रस्तुत किया है, जो मौजूदा डाटासेट की सीमाओं को संबोधित करता है, तथा संदर्भ-आधारित अनुमान को सक्षम बनाता है।
featured image - VEATIC: परिचितता और आनंद रेटिंग और संदर्भ
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
Kinetograph: The Video Editing Technology Publication

Kinetograph: The Video Editing Technology Publication

@kinetograph

The Kinetograph's the 1st motion-picture camera. At Kinetograph.Tech, we cover cutting edge tech for video editing.

0-item

STORY’S CREDIBILITY

Academic Research Paper

Academic Research Paper

Part of HackerNoon's growing list of open-source research papers, promoting free access to academic material.

यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।

लेखक:

(1) झिहांग रेन, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: peter.zhren@berkeley.edu);

(2) जेफरसन ऑर्टेगा, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: jefferson_ortega@berkeley.edu);

(3) यिफान वांग, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: wyf020803@berkeley.edu);

(4) झिमिन चेन, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: zhimin@berkeley.edu);

(5) युनहुई गुओ, यूनिवर्सिटी ऑफ टेक्सास एट डलास (ईमेल: yunhui.guo@utdallas.edu);

(6) स्टेला एक्स. यू, कैलिफोर्निया विश्वविद्यालय, बर्कले और मिशिगन विश्वविद्यालय, एन आर्बर (ईमेल: stellayu@umich.edu);

(7) डेविड व्हिटनी, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: dwhitney@berkeley.edu).

लिंक की तालिका

11. परिचितता और आनंद रेटिंग

प्रतिभागियों के प्रत्येक वीडियो के लिए परिचितता और आनंद रेटिंग एकत्रित की गई, जैसा कि चित्र 13 में दिखाया गया है। वीडियो आईडी 0-83 के लिए परिचितता और आनंद रेटिंग क्रमशः 1-5 और 1-9 के पैमाने पर एकत्रित की गई थी। वीडियो आईडी 83-123 के लिए परिचितता और आनंद रेटिंग VEATIC डेटासेट की योजना बनाने से पहले एकत्र की गई थी और एक अलग पैमाने पर एकत्र की गई थी। वीडियो आईडी 83-97 के लिए परिचितता और आनंद रेटिंग 0-5 के पैमाने पर एकत्र की गई थी और वीडियो आईडी 98-123 के लिए परिचितता/आनंद रेटिंग एकत्र नहीं की गई थी। विश्लेषण और विज़ुअलाइज़ेशन उद्देश्यों के लिए, हमने वीडियो आईडी 0-83 से मिलान करने के लिए वीडियो आईडी 83-97 के लिए परिचितता और आनंद रेटिंग को क्रमशः 1-5 और 1-9 पर पुनः स्केल किया। परिचितता मानों को 0-5 से 1-5 तक पुनः मापने के लिए हमने एक रैखिक परिवर्तन किया, हमने सबसे पहले 0 और 1 के बीच के डेटा को सामान्यीकृत किया, फिर हमने मानों को 4 से गुणा किया और 1 जोड़ा। हमने आनंद मानों को 0-5 से 1-9 तक पुनः मापने के लिए इसी प्रकार पहले 0 और 1 के बीच के डेटा को सामान्यीकृत किया, फिर हमने मानों को 8 से गुणा किया और 1 जोड़ा। परिणामस्वरूप, वीडियो आईडी 0-97 के लिए औसत परिचितता रेटिंग 1.61 थी जबकि औसत आनंद रेटिंग 4.98 थी।


चित्र 11. VEATIC में एक ही वीडियो की अलग-अलग रेटिंग का उदाहरण। (ए)। दो चयनित पात्र। (बी)। संगत पात्रों की निरंतर भावना रेटिंग। एक ही रंग एक ही पात्र को दर्शाता है। एक अच्छे भावना पहचान एल्गोरिथ्म को पात्रों के बीच की बातचीत और बिल्कुल समान संदर्भ जानकारी के आधार पर दो पात्रों की भावना का अनुमान लगाना चाहिए।

चित्र 11. VEATIC में एक ही वीडियो की अलग-अलग रेटिंग का उदाहरण। (ए)। दो चयनित पात्र। (बी)। संगत पात्रों की निरंतर भावना रेटिंग। एक ही रंग एक ही पात्र को दर्शाता है। एक अच्छे भावना पहचान एल्गोरिथ्म को पात्रों के बीच की बातचीत और बिल्कुल समान संदर्भ जानकारी के आधार पर दो पात्रों की भावना का अनुमान लगाना चाहिए।

संदर्भ

[1] अनुराग अर्नब, मुस्तफा देघघानी, जॉर्ज हेइगोल्ड, चेन सन, मारियो लुसी, और कॉर्डेलिया श्मिड। विविट: एक वीडियो ´ विज़न ट्रांसफ़ॉर्मर। कंप्यूटर विज़न पर IEEE/CVF अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 6836–6846, 2021।


चित्र 12. a) पाँच एनोटेटर्स की प्रतिक्रिया मानक विचलन बनाम सभी एनोटेटर्स की प्रतिक्रिया मानक विचलन। कम संख्या में एनोटेटर्स का परीक्षण करने से एनोटेशन में काफी अशुद्धि हो सकती है। इस अध्ययन में एनोटेटर्स की संख्या बढ़ाने से सटीकता में काफी सुधार होता है। b) प्रत्येक वीडियो के लिए एनोटेटर्स की प्रतिक्रिया मानक विचलन। लाल और नीली ठोस रेखाएँ क्रमशः प्रत्येक वीडियो में वैलेंस और उत्तेजना के लिए एनोटेटर्स की प्रतिक्रियाओं के मानक विचलन को दर्शाती हैं। परिणाम विज़ुअलाइज़ेशन उद्देश्यों के लिए प्रत्येक वीडियो के मानक विचलन के आधार पर क्रमबद्ध किए गए हैं। धराशायी रेखाएँ प्रत्येक आयाम के लिए माध्य मानक विचलन दिखाती हैं। वैलेंस और उत्तेजना के मानक विचलन के औसत मान µ = 0.248 के साथ समान हैं।

चित्र 12. a) पाँच एनोटेटर्स की प्रतिक्रिया मानक विचलन बनाम सभी एनोटेटर्स की प्रतिक्रिया मानक विचलन। कम संख्या में एनोटेटर्स का परीक्षण करने से एनोटेशन में काफी अशुद्धि हो सकती है। इस अध्ययन में एनोटेटर्स की संख्या बढ़ाने से सटीकता में काफी सुधार होता है। b) प्रत्येक वीडियो के लिए एनोटेटर्स की प्रतिक्रिया मानक विचलन। लाल और नीली ठोस रेखाएँ क्रमशः प्रत्येक वीडियो में वैलेंस और उत्तेजना के लिए एनोटेटर्स की प्रतिक्रियाओं के मानक विचलन को दर्शाती हैं। परिणाम विज़ुअलाइज़ेशन उद्देश्यों के लिए प्रत्येक वीडियो के मानक विचलन के आधार पर क्रमबद्ध किए गए हैं। धराशायी रेखाएँ प्रत्येक आयाम के लिए माध्य मानक विचलन दिखाती हैं। वैलेंस और उत्तेजना के मानक विचलन के औसत मान µ = 0.248 के साथ समान हैं।


चित्र 13. सभी वीडियो में परिचितता और आनंद रेटिंग। प्रत्येक बार वीडियो को एनोटेट करने वाले सभी प्रतिभागियों द्वारा रिपोर्ट की गई औसत परिचितता या आनंद रेटिंग को दर्शाता है। सभी वीडियो में औसत रेटिंग को दोनों आंकड़ों में क्षैतिज धराशायी रेखा द्वारा दर्शाया गया है। वीडियो आईडी को x-अक्ष पर दिखाया गया है।

चित्र 13. सभी वीडियो में परिचितता और आनंद रेटिंग। प्रत्येक बार वीडियो को एनोटेट करने वाले सभी प्रतिभागियों द्वारा रिपोर्ट की गई औसत परिचितता या आनंद रेटिंग को दर्शाता है। सभी वीडियो में औसत रेटिंग को दोनों आंकड़ों में क्षैतिज धराशायी रेखा द्वारा दर्शाया गया है। वीडियो आईडी को x-अक्ष पर दिखाया गया है।


[2] हिलेल एविएज़र, श्लोमो बेंटिन, वेरोनिका दुदारेव, और रान आर हसीन। भावनात्मक चेहरा-संदर्भ एकीकरण की स्वचालितता। इमोशन, 11(6):1406, 2011।


[3] साइमन बैरन-कोहेन, सैली व्हीलराइट, जैकलीन हिल, योगिनी रस्ते और इयान प्लंब। “आंखों में दिमाग पढ़ना” परीक्षण संशोधित संस्करण: सामान्य वयस्कों और एस्परगर सिंड्रोम या उच्च-कार्यशील ऑटिज़्म वाले वयस्कों के साथ एक अध्ययन। जर्नल ऑफ़ चाइल्ड साइकोलॉजी एंड साइकियाट्री एंड अलाइड डिसिप्लिन्स, 42(2):241–251, 2001।


[4] लिसा फेल्डमैन बैरेट और एलिजाबेथ ए केंसिंगर। भावना बोध के दौरान संदर्भ नियमित रूप से एन्कोड किया जाता है। मनोवैज्ञानिक विज्ञान, 21(4):595–599, 2010।


[5] पाब्लो बैरोस, निखिल चूरामानी, ईगोर लैकोमकिन, हेनरिक सिक्वेरा, अलेक्जेंडर सदरलैंड और स्टीफन वर्मटर। ओएमजी-इमोशन व्यवहार डेटासेट। 2018 इंटरनेशनल जॉइंट कॉन्फ्रेंस ऑन न्यूरल नेटवर्क्स (आईजेसीएनएन) में, पृष्ठ 1-7। IEEE, 2018।


[6] मार्गरेट एम ब्रैडली और पीटर जे लैंग। अंग्रेजी शब्दों के लिए भावात्मक मानदंड (एन्यू): निर्देश पुस्तिका और भावात्मक रेटिंग। तकनीकी रिपोर्ट, तकनीकी रिपोर्ट सी-1, साइकोफिजियोलॉजी में अनुसंधान के लिए केंद्र। । । , 1999।


[7] मार्टा कैल्बी, फ्रांसेस्का सिरी, कैटरीन हेइमैन, डैनियल बैरेट, विटोरियो गैलिस, अन्ना कोलेसनिकोव और मारिया एलेसेंड्रा उमिल्टा। संदर्भ चेहरे के भावों की व्याख्या को कैसे प्रभावित करता है: "कुलेशोव प्रभाव" पर एक स्रोत स्थानीयकरण उच्च घनत्व ईईजी अध्ययन। वैज्ञानिक रिपोर्ट, 9(1):1–16, 2019।


[8] झिमिन चेन और डेविड व्हिटनी। अदृश्य व्यक्तियों की भावात्मक स्थिति पर नज़र रखना। नेशनल एकेडमी ऑफ़ साइंसेज की कार्यवाही, 116(15):7559–7564, 2019।


[9] झिमिन चेन और डेविड व्हिटनी। अनुमानात्मक भावात्मक ट्रैकिंग संदर्भ-आधारित भावना बोध की उल्लेखनीय गति को प्रकट करती है। अनुभूति, 208:104549, 2021।


[10] झिमिन चेन और डेविड व्हिटनी। इनफरेंशियल इमोशन ट्रैकिंग (IET) इमोशन रिकग्निशन में संदर्भ की महत्वपूर्ण भूमिका को उजागर करती है। इमोशन, 22(6):1185, 2022।


[11] क्यूंगह्युन चो, बार्ट मेरिएनबोअर, कैगलर गुलसेहरे, फेथी बुगेरेस, होल्गर श्वेनक और योशुआ बेंगियो। सांख्यिकीय मशीन अनुवाद के लिए आरएनएन एनकोडर-डिकोडर का उपयोग करके वाक्यांश अभ्यावेदन सीखना। ईएमएनएलपी, 2014 में।


[12] जूल्स डेविडॉफ़। दृश्य धारणा में अंतर: व्यक्तिगत आँख। एल्सेवियर, 2012। [13] अभिनव ढल, रोलैंड गोएके, साइमन लूसी, टॉम गेडियन, आदि। फिल्मों से बड़े, समृद्ध रूप से एनोटेट चेहरे के भावों के डेटाबेस एकत्र करना। IEEE मल्टीमीडिया, 19(3):34, 2012।


[14] एलेक्सी डोसोवित्स्की, लुकास बेयर, अलेक्जेंडर कोलेसनिकोव, डर्क वीसेनबॉर्न, शियाओहुआ झाई, थॉमस अन्टरथिनर, मुस्तफा देहघानी, मैथियास मिंडरर, जॉर्ज हेगोल्ड, सिल्वेन जेली, आदि। एक छवि 16x16 शब्दों के बराबर होती है: पैमाने पर छवि पहचान के लिए ट्रांसफॉर्मर। arXiv प्रीप्रिंट arXiv:2010.11929, 2020।


[15] एलेन डगलस-कोवी, रॉडी कोवी, केट कॉक्स, नोम आमिर और डर्क हेलेन। संवेदनशील कृत्रिम श्रोता: भावनात्मक रूप से रंगीन बातचीत उत्पन्न करने के लिए एक प्रेरण तकनीक। भावना और प्रभाव पर शोध के लिए कॉर्पोरा पर एलआरईसी कार्यशाला में, पृष्ठ 1-4। ईएलआरए पेरिस, 2008।


[16] पॉल एकमैन। बुनियादी भावनाओं के लिए एक तर्क। अनुभूति और भावना, 6(3-4):169–200, 1992।


[17] पॉल एकमैन और वालेस वी फ्राइसन। चेहरे की क्रिया कोडिंग प्रणाली। पर्यावरण मनोविज्ञान और अशाब्दिक व्यवहार, 1978।


[18] ज़ियुन गाओ, वेंटाओ झाओ, शा लियू, झिफेन लियू, चेंगज़ियांग यांग, और योंग जू। सिज़ोफ्रेनिया में चेहरे की भावना पहचान। मनोरोग विज्ञान में फ्रंटियर्स, 12:633717, 2021.


[19] रोहित गिरधर, जोआओ कैरेरा, कार्ल डोर्श और एंड्रयू ज़िसरमैन। वीडियो एक्शन ट्रांसफ़ॉर्मर नेटवर्क। कंप्यूटर विज़न और पैटर्न रिकग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 244-253, 2019।


[20] कैमिंग हे, ज़ियांग्यु झांग, शाओकिंग रेन और जियान सन। रेक्टिफायर्स में गहराई से जाना: इमेजनेट वर्गीकरण पर मानव-स्तर के प्रदर्शन को पार करना। कंप्यूटर विज़न पर IEEE अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 1026-1034, 2015।


[21] कैमिंग हे, ज़ियांग्यु झांग, शाओकिंग रेन और जियान सन। छवि पहचान के लिए डीप रेसिडुअल लर्निंग। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE सम्मेलन की कार्यवाही में, पृष्ठ 770-778, 2016।


[22] विल ई हिप्सन और सैफ़ एम मोहम्मद। मूवी डायलॉग्स में इमोशन डायनेमिक्स। प्लोस वन, 16(9):e0256153, 2021। [23] सेप होचरेइटर और जुर्गन श्मिडहुबर। लॉन्ग शॉर्ट-टर्म ¨ मेमोरी। न्यूरल कंप्यूटेशन, 9(8):1735–1780, 1997।


[24] जॉन जे हॉपफील्ड। उभरती सामूहिक कम्प्यूटेशनल क्षमताओं के साथ तंत्रिका नेटवर्क और भौतिक प्रणालियाँ। नेशनल एकेडमी ऑफ साइंसेज की कार्यवाही, 79(8):2554–2558, 1982।


[25] झाओ कैली, वेन-शेंग चू, और होंगगांग झांग। चेहरे की क्रिया इकाई का पता लगाने के लिए डीप रीजन और मल्टी-लेबल लर्निंग। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 3391-3399, 2016।


[26] मैरी कयाल, शेरी विडेन और जेम्स ए रसेल। संदर्भ जितना हम सोचते हैं, उससे कहीं ज़्यादा शक्तिशाली है: संदर्भ संकेत वैलेंस के लिए भी चेहरे के संकेतों को ओवरराइड करते हैं। इमोशन, 15(3):287, 2015।


[27] डिडेरिक पी किंगमा और जिमी बा. एडम: स्टोकेस्टिक ऑप्टिमाइज़ेशन के लिए एक विधि. arXiv प्रीप्रिंट arXiv:1412.6980, 2014.


[28] सैंडर कोएलस्ट्रा, क्रिश्चियन मुहल, मोहम्मद सोलेमानी, जोंग-सोक ली, अश्कन यज़दानी, टूरादज इब्राहिमी, थिएरी पुन, एंटोन निजहोल्ट और इयोनिस पैट्रास। डीप: भावना विश्लेषण के लिए एक डेटाबेस; शारीरिक संकेतों का उपयोग करना। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):18–31, 2011।


[29] दिमित्रिओस कोलियास और स्टेफानोस ज़ाफ़ेरिउ. Aff-wild2: प्रभाव पहचान के लिए aff-wild डेटाबेस का विस्तार करना। arXiv प्रीप्रिंट arXiv:1811.07770, 2018.


[30] दिमित्रियोस कोलियास और स्टेफानोस ज़ाफ़ेरीउ। अभिव्यक्ति, प्रभाव, क्रिया इकाई पहचान: एफ़-वाइल्ड2, मल्टी-टास्क लर्निंग और आर्कफ़ेस। arXiv प्रीप्रिंट arXiv:1910.04855, 2019।


[31] जीन कोसैफी, जॉर्जियोस त्ज़िमिरोपोलोस, सिनिसा टोडोरोविच और माजा पेंटिक। वैलेंस और उत्तेजना अनुमान के लिए एफ़्यू-वीए डेटाबेस। इमेज और विज़न कंप्यूटिंग, 65:23–36, 2017।


[32] रोनक कोस्टी, जोस एम अल्वारेज़, एड्रिया रेकासेंस और अगाटा लापेड्रिज़ा। इमोटिक डेटासेट का उपयोग करके संदर्भ आधारित भावना पहचान। IEEE ट्रांजेक्शन ऑन पैटर्न एनालिसिस एंड मशीन इंटेलिजेंस, 42(11):2755–2766, 2019।


[33] जियाउंग ली, सेउंग्रियोंग किम, सुनोक किम, जुंगिन पार्क और क्वांगहून सोहन। संदर्भ-जागरूक भावना पहचान नेटवर्क। कंप्यूटर विज़न पर IEEE/CVF अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 10143-10152, 2019।


[34] ताए-हो ली, जून-सीक चोई, और यांग सेक चो। चेहरे की भावना धारणा का संदर्भ मॉड्यूलेशन व्यक्तिगत अंतर से भिन्न होता है। पीएलओएस वन, 7(3):e32987, 2012।


[35] योंग ली, जियाबेई ज़ेंग, शिगुआंग शान और ज़िलिन चेन। चेहरे की क्रिया इकाई का पता लगाने के लिए वीडियो से स्व-पर्यवेक्षित प्रतिनिधित्व सीखना। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 10924-10933, 2019।


[36] ज़ी लियू, जिया निंग, यू काओ, यिशुआन वेई, झेंग झांग, स्टीफन लिन और हान हू। वीडियो स्विन ट्रांसफॉर्मर। कंप्यूटर विज़न और पैटर्न रिकग्निशन पर IEEE/CVF कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 3202–3211, 2022।


[37] चेंग लुओ, सियांग सॉन्ग, वेइचेंग ज़ी, लिनलिन शेन और हैटिस गुनेस। फेशियल एक्शन यूनिट रिकग्निशन के लिए मल्टी-डायमेंशनल एज फ़ीचरबेस्ड एयू रिलेशन ग्राफ़ सीखना। आर्टिफिशियल इंटेलिजेंस पर थर्टी-फर्स्ट इंटरनेशनल जॉइंट कॉन्फ्रेंस की कार्यवाही में, IJCAI-22, पृष्ठ 1239-1246, 2022।


[38] डैनियल मैकडफ, राना कलिउबी, थिबॉड सेनेचल, मे अमर, जेफरी कोहन और रोजालिंड पिकार्ड। एफेक्टिवा-मिट फेशियल एक्सप्रेशन डेटासेट (एएम-फेड): प्राकृतिक और सहज चेहरे के भाव एकत्र किए गए। कंप्यूटर विज़न और पैटर्न रिकग्निशन वर्कशॉप पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 881-888, 2013।


[39] गैरी मैककेवन, मिशेल वैलस्टार, रॉडी कोवी, माजा पेंटिक और मार्क श्रोडर। सेमेन डेटाबेस: एक व्यक्ति और एक सीमित एजेंट के बीच भावनात्मक रूप से रंगीन बातचीत के एनोटेटेड मल्टीमॉडल रिकॉर्ड। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):5–17, 2011।


[40] त्रिशा मित्तल, पूजा गुहान, उत्तरन भट्टाचार्य, रोहन चंद्रा, अनिकेत बेरा और दिनेश मनोचा। इमोटिकॉन: फ्रेगे के सिद्धांत का उपयोग करके संदर्भ-जागरूक मल्टीमॉडल भावना पहचान। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 14234- 14243, 2020।


[41] एम.ए. नासरी, मोहम्मद अमीन हमानी, आयमेन मटिबा, दीजाना पेत्रोव्स्का-डेलाक्रेटाज़, एम. बेन स्लिमा और ए. बेन हमीदा। कन्वोल्यूशन न्यूरल नेटवर्क पर आधारित स्थिर छवि से चेहरे की भावना पहचान। 2020 में सिग्नल और इमेज प्रोसेसिंग (एटीएसआईपी) के लिए उन्नत प्रौद्योगिकियों पर 5वें अंतर्राष्ट्रीय सम्मेलन में, पृष्ठ 1-6। आईईईई, 2020।


[42] एरिक सी नुक्क, क्रिस्टन ए लिंडक्विस्ट और जमील ज़की। भावना बोध पर एक नया नज़रिया: चेहरे की भावना पहचान की गति और आकार की अवधारणाएँ। इमोशन, 15(5):569, 2015।


[43] डेसमंड सी ओंग, झेंगक्सुआन वू, ज़ी-ज़ुआन टैन, मैरिएन रेड्डन, इसाबेला कहले, एलिसन मैटेक और जमील ज़की। जटिल कहानियों में भावना मॉडलिंग: स्टैनफ़ोर्ड भावनात्मक कथा डेटासेट। IEEE ट्रांजेक्शन ऑन अफ़ेक्टिव कंप्यूटिंग, 12(3):579–594, 2019।


[44] डेसमंड सी ओंग, जमील ज़की, और नोआ डी गुडमैन। मन के सिद्धांत में भावना अनुमान के कम्प्यूटेशनल मॉडल: एक समीक्षा और रोडमैप। संज्ञानात्मक विज्ञान में विषय, 11(2):338–357, 2019।


[45] टिमिया आर पार्टोस, साइमन जे क्रॉपर, और डेविड रॉलिंग्स। आप वह नहीं देखते जो मैं देखता हूँ: दृश्य उत्तेजनाओं से अर्थ की धारणा में व्यक्तिगत अंतर। प्लोस वन, 11(3):e0150615, 2016।


[46] सौजन्य पोरिया, देवमन्यु हजारिका, नवोनिल मजूमदार, गौतम नाइक, एरिक कैम्ब्रिया और राडा मिहालसिया। मेल्ड: बातचीत में भावना पहचान के लिए एक मल्टीमॉडल मल्टी-पार्टी डेटासेट। arXiv प्रीप्रिंट arXiv:1810.02508, 2018।


[47] जोनाथन पॉसनर, जेम्स ए रसेल और ब्रैडली एस पीटरसन। प्रभाव का सर्कमप्लेक्स मॉडल: भावात्मक तंत्रिका विज्ञान, संज्ञानात्मक विकास और मनोविकृति विज्ञान के लिए एक एकीकृत दृष्टिकोण। विकास और मनोविकृति विज्ञान, 17(3):715–734, 2005।


[48] झिहांग रेन, झिन्यू ली, डाना पिएट्राला, मौरो मनासी और डेविड व्हिटनी। त्वचा संबंधी निर्णयों में क्रमिक निर्भरता। डायग्नोस्टिक्स, 13(10):1775, 2023।


[49] फैबियन रिंगेवाल, एंड्रियास सोंडेरेगर, जुएरगेन सॉयर और डेनिस लालन। रिमोट कोऑपरेटिव और इफ़ेक्टिव इंटरैक्शन के रिकोला मल्टीमॉडल कॉर्पस का परिचय। 2013 में 10वीं IEEE इंटरनेशनल कॉन्फ्रेंस और ऑटोमैटिक फेस और जेस्चर रिकग्निशन (FG) पर कार्यशालाएँ, पेज 1-8। IEEE, 2013।


[50] डेविड ई रुमेलहार्ट, जेफ्री ई हिंटन, रोनाल्ड जे विलियम्स, एट अल. त्रुटि प्रसार द्वारा आंतरिक अभ्यावेदन सीखना, 1985.


[51] ओल्गा रुसाकोवस्की, जिया डेंग, हाओ सु, जोनाथन क्राउज़, संजीव सतीश, सीन मा, झिहेंग हुआंग, आंद्रेज कारपथी, आदित्य खोसला, माइकल बर्नस्टीन, एट अल। इमेजनेट बड़े पैमाने पर दृश्य पहचान चुनौती। इंटरनेशनल जर्नल ऑफ़ कंप्यूटर विज़न, 115:211–252, 2015।


[52] जेम्स ए रसेल। प्रभाव का एक सर्कमप्लेक्स मॉडल। जर्नल ऑफ पर्सनालिटी एंड सोशल साइकोलॉजी, 39(6):1161, 1980।


[53] जेम्स ए रसेल. आयामी प्रासंगिक परिप्रेक्ष्य. चेहरे की अभिव्यक्ति का मनोविज्ञान, पृष्ठ 295, 1997.


[54] एंड्री वी सावचेंको। हल्के न्यूरल नेटवर्क के मल्टी-टास्क लर्निंग पर आधारित चेहरे के भाव और विशेषताओं की पहचान। 2021 IEEE 19वीं इंटरनेशनल सिम्पोजियम ऑन इंटेलिजेंट सिस्टम्स एंड इंफॉर्मेटिक्स (SISY), पृष्ठ 119-124। IEEE, 2021।


[55] एंड्री वी सावचेंको, ल्यूडमिला वी सावचेंको, और इल्या मकारोव। एकल चेहरे की अभिव्यक्ति पहचान तंत्रिका नेटवर्क के आधार पर ऑनलाइन सीखने में भावनाओं और जुड़ाव को वर्गीकृत करना। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 13(4):2132–2143, 2022।


[56] झिवेन शाओ, झिलेई लियू, जियानफेई कै, और लिझुआंग मा। संयुक्त चेहरे की क्रिया इकाई का पता लगाने और चेहरे के संरेखण के लिए गहन अनुकूली ध्यान। कंप्यूटर विज़न (ईसीसीवी) पर यूरोपीय सम्मेलन की कार्यवाही में, पृष्ठ 705-720, 2018।


[57] जियाहुई शी, यिबो हू, हैलिन शि, जून वांग, किउ शेन और ताओ मेई। अस्पष्टता में गोता लगाएँ: चेहरे की अभिव्यक्ति पहचान के लिए अव्यक्त वितरण खनन और जोड़ीदार अनिश्चितता अनुमान। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 6248-6257, 2021।


[58] इयान स्नेडन, मार्गरेट मैकरोरी, गैरी मैककाउन और जेनिफर हैनराटी। बेलफास्ट प्रेरित प्राकृतिक भावना डेटाबेस। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):32–41, 2011।


[59] मोहम्मद सोलेमानी, जेरोन लिचटेनॉयर, थिएरी पुन और माजा पेंटिक। प्रभाव पहचान और अंतर्निहित टैगिंग के लिए एक मल्टीमॉडल डेटाबेस। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):42–55, 2011।


[60] पावेल टार्नोव्स्की, मार्सिन कोलोड्ज़िएज, आंद्रेज माजकोव्स्की, और रेमिगियस जे राक. चेहरे के भावों का उपयोग करके भावना पहचानना। प्रोसीडिया कंप्यूटर साइंस, 108:1175–1184, 2017.


[61] वाईआई तियान, टेको कनाडे, और जेफ़री एफ कोहन। चेहरे के भावों के विश्लेषण के लिए क्रिया इकाइयों को पहचानना। IEEE ट्रांजेक्शन ऑन पैटर्न एनालिसिस एंड मशीन इंटेलिजेंस, 23(2):97–115, 2001।


[62] वेदत तुमेन, ओमर फारुक एस ओयलेमेज़ और बुरहान एर्गेन। कन्वोल्यूशनल न्यूरल नेटवर्क का उपयोग करके डेटासेट पर चेहरे की भावना पहचान। 2017 इंटरनेशनल आर्टिफिशियल इंटेलिजेंस एंड डेटा प्रोसेसिंग सिम्पोजियम (आईडीएपी) में, पृष्ठ 1-5। IEEE, 2017।


[63] गेटानो वैलेंज़ा, एंटोनियो लानाटा, और एन्ज़ो पास्क्वाले स्किलिंगो। भावात्मक वैलेंस और उत्तेजना पहचान में गैर-रेखीय गतिशीलता की भूमिका। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(2):237–249, 2011।


[64] रवितेजा वेमुलापल्ली और असीम अग्रवाल। चेहरे के भावों की समानता के लिए एक कॉम्पैक्ट एम्बेडिंग। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 5683-5692, 2019।


[65] कन्नन वेंकटरमनन और हरेश रेंगराज राजमोहन। भाषण से भावना पहचान। arXiv प्रीप्रिंट arXiv:1912.10458, 2019।


[66] काई वांग, शियाओजियांग पेंग, जियानफेई यांग, शिजियान लू और यू किआओ। बड़े पैमाने पर चेहरे के भावों की पहचान के लिए अनिश्चितताओं को दबाना। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 6897-6906, 2020।


[67] फ़ांगलेई ज़ू, ज़िचांग टैन, यू झू, झोंगसोंग मा, और गुओडोंग गुओ। वीडियो चेहरे की अभिव्यक्ति पहचान के लिए चिकनी भविष्यवाणी के साथ मोटे-से-बारीक कैस्केड नेटवर्क। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 2412–2418, 2022।


[68] सेउंगह्युन यून, सेओख्युन ब्युन और क्योमिन जंग। ऑडियो और टेक्स्ट का उपयोग करके मल्टीमॉडल स्पीच इमोशन रिकग्निशन। 2018 IEEE स्पोकन लैंग्वेज टेक्नोलॉजी वर्कशॉप (SLT) में, पृष्ठ 112-118। IEEE, 2018।


[69] स्टेफानोस ज़ाफ़ेरीउ, दिमित्रियोस कोलियास, मिहालिस ए निकोलाउ, अथानासियोस पापायोआन्नौ, गुओयिंग झाओ, और आइरीन कोट्सिया। एफ़-वाइल्ड: वैलेंस और अराउज़ल'इन-द-वाइल्ड'चैलेंज। कंप्यूटर विज़न और पैटर्न रिकग्निशन वर्कशॉप पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 34-41, 2017।


[70] युआनयुआन झांग, जून डू, ज़िरुई वांग, जियानशु झांग और यानहुई तू। भाषण भावना पहचान के लिए ध्यान आधारित पूरी तरह से कन्वोल्यूशनल नेटवर्क। 2018 एशिया-पैसिफिक सिग्नल एंड इंफॉर्मेशन प्रोसेसिंग एसोसिएशन वार्षिक शिखर सम्मेलन और सम्मेलन (एपीएसआईपीए एएससी), पृष्ठ 1771-1775। IEEE, 2018।


[71] युआन-हैंग झांग, रुलिन हुआंग, जियाबेई ज़ेंग और शिगुआंग शान। एम 3 एफ: वाइल्ड में मल्टी-मोडल निरंतर वैलेंस-उत्तेजना अनुमान। 2020 में 15वें IEEE इंटरनेशनल कॉन्फ्रेंस ऑन ऑटोमेटिक फेस एंड जेस्चर रिकॉग्निशन (FG 2020), पेज 632-636। IEEE, 2020।


यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।


L O A D I N G
. . . comments & more!

About Author

Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
Kinetograph: The Video Editing Technology Publication@kinetograph
The Kinetograph's the 1st motion-picture camera. At Kinetograph.Tech, we cover cutting edge tech for video editing.

लेबल

इस लेख में चित्रित किया गया था...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite