paint-brush
VEATIC: परिचितता और आनंद रेटिंग और संदर्भद्वारा@kinetograph
217 रीडिंग

VEATIC: परिचितता और आनंद रेटिंग और संदर्भ

बहुत लंबा; पढ़ने के लिए

इस शोधपत्र में, शोधकर्ताओं ने मानवीय प्रभाव पहचान के लिए VEATIC डाटासेट प्रस्तुत किया है, जो मौजूदा डाटासेट की सीमाओं को संबोधित करता है, तथा संदर्भ-आधारित अनुमान को सक्षम बनाता है।
featured image - VEATIC: परिचितता और आनंद रेटिंग और संदर्भ
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।

लेखक:

(1) झिहांग रेन, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(2) जेफरसन ऑर्टेगा, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(3) यिफान वांग, कैलिफोर्निया विश्वविद्यालय, बर्कले और इन लेखकों ने इस कार्य में समान रूप से योगदान दिया (ईमेल: [email protected]);

(4) झिमिन चेन, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]);

(5) युनहुई गुओ, यूनिवर्सिटी ऑफ टेक्सास एट डलास (ईमेल: [email protected]);

(6) स्टेला एक्स. यू, कैलिफोर्निया विश्वविद्यालय, बर्कले और मिशिगन विश्वविद्यालय, एन आर्बर (ईमेल: [email protected]);

(7) डेविड व्हिटनी, कैलिफोर्निया विश्वविद्यालय, बर्कले (ईमेल: [email protected]).

लिंक की तालिका

11. परिचितता और आनंद रेटिंग

प्रतिभागियों के प्रत्येक वीडियो के लिए परिचितता और आनंद रेटिंग एकत्रित की गई, जैसा कि चित्र 13 में दिखाया गया है। वीडियो आईडी 0-83 के लिए परिचितता और आनंद रेटिंग क्रमशः 1-5 और 1-9 के पैमाने पर एकत्रित की गई थी। वीडियो आईडी 83-123 के लिए परिचितता और आनंद रेटिंग VEATIC डेटासेट की योजना बनाने से पहले एकत्र की गई थी और एक अलग पैमाने पर एकत्र की गई थी। वीडियो आईडी 83-97 के लिए परिचितता और आनंद रेटिंग 0-5 के पैमाने पर एकत्र की गई थी और वीडियो आईडी 98-123 के लिए परिचितता/आनंद रेटिंग एकत्र नहीं की गई थी। विश्लेषण और विज़ुअलाइज़ेशन उद्देश्यों के लिए, हमने वीडियो आईडी 0-83 से मिलान करने के लिए वीडियो आईडी 83-97 के लिए परिचितता और आनंद रेटिंग को क्रमशः 1-5 और 1-9 पर पुनः स्केल किया। परिचितता मानों को 0-5 से 1-5 तक पुनः मापने के लिए हमने एक रैखिक परिवर्तन किया, हमने सबसे पहले 0 और 1 के बीच के डेटा को सामान्यीकृत किया, फिर हमने मानों को 4 से गुणा किया और 1 जोड़ा। हमने आनंद मानों को 0-5 से 1-9 तक पुनः मापने के लिए इसी प्रकार पहले 0 और 1 के बीच के डेटा को सामान्यीकृत किया, फिर हमने मानों को 8 से गुणा किया और 1 जोड़ा। परिणामस्वरूप, वीडियो आईडी 0-97 के लिए औसत परिचितता रेटिंग 1.61 थी जबकि औसत आनंद रेटिंग 4.98 थी।


चित्र 11. VEATIC में एक ही वीडियो की अलग-अलग रेटिंग का उदाहरण। (ए)। दो चयनित पात्र। (बी)। संगत पात्रों की निरंतर भावना रेटिंग। एक ही रंग एक ही पात्र को दर्शाता है। एक अच्छे भावना पहचान एल्गोरिथ्म को पात्रों के बीच की बातचीत और बिल्कुल समान संदर्भ जानकारी के आधार पर दो पात्रों की भावना का अनुमान लगाना चाहिए।

संदर्भ

[1] अनुराग अर्नब, मुस्तफा देघघानी, जॉर्ज हेइगोल्ड, चेन सन, मारियो लुसी, और कॉर्डेलिया श्मिड। विविट: एक वीडियो ´ विज़न ट्रांसफ़ॉर्मर। कंप्यूटर विज़न पर IEEE/CVF अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 6836–6846, 2021।


चित्र 12. a) पाँच एनोटेटर्स की प्रतिक्रिया मानक विचलन बनाम सभी एनोटेटर्स की प्रतिक्रिया मानक विचलन। कम संख्या में एनोटेटर्स का परीक्षण करने से एनोटेशन में काफी अशुद्धि हो सकती है। इस अध्ययन में एनोटेटर्स की संख्या बढ़ाने से सटीकता में काफी सुधार होता है। b) प्रत्येक वीडियो के लिए एनोटेटर्स की प्रतिक्रिया मानक विचलन। लाल और नीली ठोस रेखाएँ क्रमशः प्रत्येक वीडियो में वैलेंस और उत्तेजना के लिए एनोटेटर्स की प्रतिक्रियाओं के मानक विचलन को दर्शाती हैं। परिणाम विज़ुअलाइज़ेशन उद्देश्यों के लिए प्रत्येक वीडियो के मानक विचलन के आधार पर क्रमबद्ध किए गए हैं। धराशायी रेखाएँ प्रत्येक आयाम के लिए माध्य मानक विचलन दिखाती हैं। वैलेंस और उत्तेजना के मानक विचलन के औसत मान µ = 0.248 के साथ समान हैं।


चित्र 13. सभी वीडियो में परिचितता और आनंद रेटिंग। प्रत्येक बार वीडियो को एनोटेट करने वाले सभी प्रतिभागियों द्वारा रिपोर्ट की गई औसत परिचितता या आनंद रेटिंग को दर्शाता है। सभी वीडियो में औसत रेटिंग को दोनों आंकड़ों में क्षैतिज धराशायी रेखा द्वारा दर्शाया गया है। वीडियो आईडी को x-अक्ष पर दिखाया गया है।


[2] हिलेल एविएज़र, श्लोमो बेंटिन, वेरोनिका दुदारेव, और रान आर हसीन। भावनात्मक चेहरा-संदर्भ एकीकरण की स्वचालितता। इमोशन, 11(6):1406, 2011।


[3] साइमन बैरन-कोहेन, सैली व्हीलराइट, जैकलीन हिल, योगिनी रस्ते और इयान प्लंब। “आंखों में दिमाग पढ़ना” परीक्षण संशोधित संस्करण: सामान्य वयस्कों और एस्परगर सिंड्रोम या उच्च-कार्यशील ऑटिज़्म वाले वयस्कों के साथ एक अध्ययन। जर्नल ऑफ़ चाइल्ड साइकोलॉजी एंड साइकियाट्री एंड अलाइड डिसिप्लिन्स, 42(2):241–251, 2001।


[4] लिसा फेल्डमैन बैरेट और एलिजाबेथ ए केंसिंगर। भावना बोध के दौरान संदर्भ नियमित रूप से एन्कोड किया जाता है। मनोवैज्ञानिक विज्ञान, 21(4):595–599, 2010।


[5] पाब्लो बैरोस, निखिल चूरामानी, ईगोर लैकोमकिन, हेनरिक सिक्वेरा, अलेक्जेंडर सदरलैंड और स्टीफन वर्मटर। ओएमजी-इमोशन व्यवहार डेटासेट। 2018 इंटरनेशनल जॉइंट कॉन्फ्रेंस ऑन न्यूरल नेटवर्क्स (आईजेसीएनएन) में, पृष्ठ 1-7। IEEE, 2018।


[6] मार्गरेट एम ब्रैडली और पीटर जे लैंग। अंग्रेजी शब्दों के लिए भावात्मक मानदंड (एन्यू): निर्देश पुस्तिका और भावात्मक रेटिंग। तकनीकी रिपोर्ट, तकनीकी रिपोर्ट सी-1, साइकोफिजियोलॉजी में अनुसंधान के लिए केंद्र। । । , 1999।


[7] मार्टा कैल्बी, फ्रांसेस्का सिरी, कैटरीन हेइमैन, डैनियल बैरेट, विटोरियो गैलिस, अन्ना कोलेसनिकोव और मारिया एलेसेंड्रा उमिल्टा। संदर्भ चेहरे के भावों की व्याख्या को कैसे प्रभावित करता है: "कुलेशोव प्रभाव" पर एक स्रोत स्थानीयकरण उच्च घनत्व ईईजी अध्ययन। वैज्ञानिक रिपोर्ट, 9(1):1–16, 2019।


[8] झिमिन चेन और डेविड व्हिटनी। अदृश्य व्यक्तियों की भावात्मक स्थिति पर नज़र रखना। नेशनल एकेडमी ऑफ़ साइंसेज की कार्यवाही, 116(15):7559–7564, 2019।


[9] झिमिन चेन और डेविड व्हिटनी। अनुमानात्मक भावात्मक ट्रैकिंग संदर्भ-आधारित भावना बोध की उल्लेखनीय गति को प्रकट करती है। अनुभूति, 208:104549, 2021।


[10] झिमिन चेन और डेविड व्हिटनी। इनफरेंशियल इमोशन ट्रैकिंग (IET) इमोशन रिकग्निशन में संदर्भ की महत्वपूर्ण भूमिका को उजागर करती है। इमोशन, 22(6):1185, 2022।


[11] क्यूंगह्युन चो, बार्ट मेरिएनबोअर, कैगलर गुलसेहरे, फेथी बुगेरेस, होल्गर श्वेनक और योशुआ बेंगियो। सांख्यिकीय मशीन अनुवाद के लिए आरएनएन एनकोडर-डिकोडर का उपयोग करके वाक्यांश अभ्यावेदन सीखना। ईएमएनएलपी, 2014 में।


[12] जूल्स डेविडॉफ़। दृश्य धारणा में अंतर: व्यक्तिगत आँख। एल्सेवियर, 2012। [13] अभिनव ढल, रोलैंड गोएके, साइमन लूसी, टॉम गेडियन, आदि। फिल्मों से बड़े, समृद्ध रूप से एनोटेट चेहरे के भावों के डेटाबेस एकत्र करना। IEEE मल्टीमीडिया, 19(3):34, 2012।


[14] एलेक्सी डोसोवित्स्की, लुकास बेयर, अलेक्जेंडर कोलेसनिकोव, डर्क वीसेनबॉर्न, शियाओहुआ झाई, थॉमस अन्टरथिनर, मुस्तफा देहघानी, मैथियास मिंडरर, जॉर्ज हेगोल्ड, सिल्वेन जेली, आदि। एक छवि 16x16 शब्दों के बराबर होती है: पैमाने पर छवि पहचान के लिए ट्रांसफॉर्मर। arXiv प्रीप्रिंट arXiv:2010.11929, 2020।


[15] एलेन डगलस-कोवी, रॉडी कोवी, केट कॉक्स, नोम आमिर और डर्क हेलेन। संवेदनशील कृत्रिम श्रोता: भावनात्मक रूप से रंगीन बातचीत उत्पन्न करने के लिए एक प्रेरण तकनीक। भावना और प्रभाव पर शोध के लिए कॉर्पोरा पर एलआरईसी कार्यशाला में, पृष्ठ 1-4। ईएलआरए पेरिस, 2008।


[16] पॉल एकमैन। बुनियादी भावनाओं के लिए एक तर्क। अनुभूति और भावना, 6(3-4):169–200, 1992।


[17] पॉल एकमैन और वालेस वी फ्राइसन। चेहरे की क्रिया कोडिंग प्रणाली। पर्यावरण मनोविज्ञान और अशाब्दिक व्यवहार, 1978।


[18] ज़ियुन गाओ, वेंटाओ झाओ, शा लियू, झिफेन लियू, चेंगज़ियांग यांग, और योंग जू। सिज़ोफ्रेनिया में चेहरे की भावना पहचान। मनोरोग विज्ञान में फ्रंटियर्स, 12:633717, 2021.


[19] रोहित गिरधर, जोआओ कैरेरा, कार्ल डोर्श और एंड्रयू ज़िसरमैन। वीडियो एक्शन ट्रांसफ़ॉर्मर नेटवर्क। कंप्यूटर विज़न और पैटर्न रिकग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 244-253, 2019।


[20] कैमिंग हे, ज़ियांग्यु झांग, शाओकिंग रेन और जियान सन। रेक्टिफायर्स में गहराई से जाना: इमेजनेट वर्गीकरण पर मानव-स्तर के प्रदर्शन को पार करना। कंप्यूटर विज़न पर IEEE अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 1026-1034, 2015।


[21] कैमिंग हे, ज़ियांग्यु झांग, शाओकिंग रेन और जियान सन। छवि पहचान के लिए डीप रेसिडुअल लर्निंग। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE सम्मेलन की कार्यवाही में, पृष्ठ 770-778, 2016।


[22] विल ई हिप्सन और सैफ़ एम मोहम्मद। मूवी डायलॉग्स में इमोशन डायनेमिक्स। प्लोस वन, 16(9):e0256153, 2021। [23] सेप होचरेइटर और जुर्गन श्मिडहुबर। लॉन्ग शॉर्ट-टर्म ¨ मेमोरी। न्यूरल कंप्यूटेशन, 9(8):1735–1780, 1997।


[24] जॉन जे हॉपफील्ड। उभरती सामूहिक कम्प्यूटेशनल क्षमताओं के साथ तंत्रिका नेटवर्क और भौतिक प्रणालियाँ। नेशनल एकेडमी ऑफ साइंसेज की कार्यवाही, 79(8):2554–2558, 1982।


[25] झाओ कैली, वेन-शेंग चू, और होंगगांग झांग। चेहरे की क्रिया इकाई का पता लगाने के लिए डीप रीजन और मल्टी-लेबल लर्निंग। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 3391-3399, 2016।


[26] मैरी कयाल, शेरी विडेन और जेम्स ए रसेल। संदर्भ जितना हम सोचते हैं, उससे कहीं ज़्यादा शक्तिशाली है: संदर्भ संकेत वैलेंस के लिए भी चेहरे के संकेतों को ओवरराइड करते हैं। इमोशन, 15(3):287, 2015।


[27] डिडेरिक पी किंगमा और जिमी बा. एडम: स्टोकेस्टिक ऑप्टिमाइज़ेशन के लिए एक विधि. arXiv प्रीप्रिंट arXiv:1412.6980, 2014.


[28] सैंडर कोएलस्ट्रा, क्रिश्चियन मुहल, मोहम्मद सोलेमानी, जोंग-सोक ली, अश्कन यज़दानी, टूरादज इब्राहिमी, थिएरी पुन, एंटोन निजहोल्ट और इयोनिस पैट्रास। डीप: भावना विश्लेषण के लिए एक डेटाबेस; शारीरिक संकेतों का उपयोग करना। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):18–31, 2011।


[29] दिमित्रिओस कोलियास और स्टेफानोस ज़ाफ़ेरिउ. Aff-wild2: प्रभाव पहचान के लिए aff-wild डेटाबेस का विस्तार करना। arXiv प्रीप्रिंट arXiv:1811.07770, 2018.


[30] दिमित्रियोस कोलियास और स्टेफानोस ज़ाफ़ेरीउ। अभिव्यक्ति, प्रभाव, क्रिया इकाई पहचान: एफ़-वाइल्ड2, मल्टी-टास्क लर्निंग और आर्कफ़ेस। arXiv प्रीप्रिंट arXiv:1910.04855, 2019।


[31] जीन कोसैफी, जॉर्जियोस त्ज़िमिरोपोलोस, सिनिसा टोडोरोविच और माजा पेंटिक। वैलेंस और उत्तेजना अनुमान के लिए एफ़्यू-वीए डेटाबेस। इमेज और विज़न कंप्यूटिंग, 65:23–36, 2017।


[32] रोनक कोस्टी, जोस एम अल्वारेज़, एड्रिया रेकासेंस और अगाटा लापेड्रिज़ा। इमोटिक डेटासेट का उपयोग करके संदर्भ आधारित भावना पहचान। IEEE ट्रांजेक्शन ऑन पैटर्न एनालिसिस एंड मशीन इंटेलिजेंस, 42(11):2755–2766, 2019।


[33] जियाउंग ली, सेउंग्रियोंग किम, सुनोक किम, जुंगिन पार्क और क्वांगहून सोहन। संदर्भ-जागरूक भावना पहचान नेटवर्क। कंप्यूटर विज़न पर IEEE/CVF अंतर्राष्ट्रीय सम्मेलन की कार्यवाही में, पृष्ठ 10143-10152, 2019।


[34] ताए-हो ली, जून-सीक चोई, और यांग सेक चो। चेहरे की भावना धारणा का संदर्भ मॉड्यूलेशन व्यक्तिगत अंतर से भिन्न होता है। पीएलओएस वन, 7(3):e32987, 2012।


[35] योंग ली, जियाबेई ज़ेंग, शिगुआंग शान और ज़िलिन चेन। चेहरे की क्रिया इकाई का पता लगाने के लिए वीडियो से स्व-पर्यवेक्षित प्रतिनिधित्व सीखना। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 10924-10933, 2019।


[36] ज़ी लियू, जिया निंग, यू काओ, यिशुआन वेई, झेंग झांग, स्टीफन लिन और हान हू। वीडियो स्विन ट्रांसफॉर्मर। कंप्यूटर विज़न और पैटर्न रिकग्निशन पर IEEE/CVF कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 3202–3211, 2022।


[37] चेंग लुओ, सियांग सॉन्ग, वेइचेंग ज़ी, लिनलिन शेन और हैटिस गुनेस। फेशियल एक्शन यूनिट रिकग्निशन के लिए मल्टी-डायमेंशनल एज फ़ीचरबेस्ड एयू रिलेशन ग्राफ़ सीखना। आर्टिफिशियल इंटेलिजेंस पर थर्टी-फर्स्ट इंटरनेशनल जॉइंट कॉन्फ्रेंस की कार्यवाही में, IJCAI-22, पृष्ठ 1239-1246, 2022।


[38] डैनियल मैकडफ, राना कलिउबी, थिबॉड सेनेचल, मे अमर, जेफरी कोहन और रोजालिंड पिकार्ड। एफेक्टिवा-मिट फेशियल एक्सप्रेशन डेटासेट (एएम-फेड): प्राकृतिक और सहज चेहरे के भाव एकत्र किए गए। कंप्यूटर विज़न और पैटर्न रिकग्निशन वर्कशॉप पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 881-888, 2013।


[39] गैरी मैककेवन, मिशेल वैलस्टार, रॉडी कोवी, माजा पेंटिक और मार्क श्रोडर। सेमेन डेटाबेस: एक व्यक्ति और एक सीमित एजेंट के बीच भावनात्मक रूप से रंगीन बातचीत के एनोटेटेड मल्टीमॉडल रिकॉर्ड। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):5–17, 2011।


[40] त्रिशा मित्तल, पूजा गुहान, उत्तरन भट्टाचार्य, रोहन चंद्रा, अनिकेत बेरा और दिनेश मनोचा। इमोटिकॉन: फ्रेगे के सिद्धांत का उपयोग करके संदर्भ-जागरूक मल्टीमॉडल भावना पहचान। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 14234- 14243, 2020।


[41] एम.ए. नासरी, मोहम्मद अमीन हमानी, आयमेन मटिबा, दीजाना पेत्रोव्स्का-डेलाक्रेटाज़, एम. बेन स्लिमा और ए. बेन हमीदा। कन्वोल्यूशन न्यूरल नेटवर्क पर आधारित स्थिर छवि से चेहरे की भावना पहचान। 2020 में सिग्नल और इमेज प्रोसेसिंग (एटीएसआईपी) के लिए उन्नत प्रौद्योगिकियों पर 5वें अंतर्राष्ट्रीय सम्मेलन में, पृष्ठ 1-6। आईईईई, 2020।


[42] एरिक सी नुक्क, क्रिस्टन ए लिंडक्विस्ट और जमील ज़की। भावना बोध पर एक नया नज़रिया: चेहरे की भावना पहचान की गति और आकार की अवधारणाएँ। इमोशन, 15(5):569, 2015।


[43] डेसमंड सी ओंग, झेंगक्सुआन वू, ज़ी-ज़ुआन टैन, मैरिएन रेड्डन, इसाबेला कहले, एलिसन मैटेक और जमील ज़की। जटिल कहानियों में भावना मॉडलिंग: स्टैनफ़ोर्ड भावनात्मक कथा डेटासेट। IEEE ट्रांजेक्शन ऑन अफ़ेक्टिव कंप्यूटिंग, 12(3):579–594, 2019।


[44] डेसमंड सी ओंग, जमील ज़की, और नोआ डी गुडमैन। मन के सिद्धांत में भावना अनुमान के कम्प्यूटेशनल मॉडल: एक समीक्षा और रोडमैप। संज्ञानात्मक विज्ञान में विषय, 11(2):338–357, 2019।


[45] टिमिया आर पार्टोस, साइमन जे क्रॉपर, और डेविड रॉलिंग्स। आप वह नहीं देखते जो मैं देखता हूँ: दृश्य उत्तेजनाओं से अर्थ की धारणा में व्यक्तिगत अंतर। प्लोस वन, 11(3):e0150615, 2016।


[46] सौजन्य पोरिया, देवमन्यु हजारिका, नवोनिल मजूमदार, गौतम नाइक, एरिक कैम्ब्रिया और राडा मिहालसिया। मेल्ड: बातचीत में भावना पहचान के लिए एक मल्टीमॉडल मल्टी-पार्टी डेटासेट। arXiv प्रीप्रिंट arXiv:1810.02508, 2018।


[47] जोनाथन पॉसनर, जेम्स ए रसेल और ब्रैडली एस पीटरसन। प्रभाव का सर्कमप्लेक्स मॉडल: भावात्मक तंत्रिका विज्ञान, संज्ञानात्मक विकास और मनोविकृति विज्ञान के लिए एक एकीकृत दृष्टिकोण। विकास और मनोविकृति विज्ञान, 17(3):715–734, 2005।


[48] झिहांग रेन, झिन्यू ली, डाना पिएट्राला, मौरो मनासी और डेविड व्हिटनी। त्वचा संबंधी निर्णयों में क्रमिक निर्भरता। डायग्नोस्टिक्स, 13(10):1775, 2023।


[49] फैबियन रिंगेवाल, एंड्रियास सोंडेरेगर, जुएरगेन सॉयर और डेनिस लालन। रिमोट कोऑपरेटिव और इफ़ेक्टिव इंटरैक्शन के रिकोला मल्टीमॉडल कॉर्पस का परिचय। 2013 में 10वीं IEEE इंटरनेशनल कॉन्फ्रेंस और ऑटोमैटिक फेस और जेस्चर रिकग्निशन (FG) पर कार्यशालाएँ, पेज 1-8। IEEE, 2013।


[50] डेविड ई रुमेलहार्ट, जेफ्री ई हिंटन, रोनाल्ड जे विलियम्स, एट अल. त्रुटि प्रसार द्वारा आंतरिक अभ्यावेदन सीखना, 1985.


[51] ओल्गा रुसाकोवस्की, जिया डेंग, हाओ सु, जोनाथन क्राउज़, संजीव सतीश, सीन मा, झिहेंग हुआंग, आंद्रेज कारपथी, आदित्य खोसला, माइकल बर्नस्टीन, एट अल। इमेजनेट बड़े पैमाने पर दृश्य पहचान चुनौती। इंटरनेशनल जर्नल ऑफ़ कंप्यूटर विज़न, 115:211–252, 2015।


[52] जेम्स ए रसेल। प्रभाव का एक सर्कमप्लेक्स मॉडल। जर्नल ऑफ पर्सनालिटी एंड सोशल साइकोलॉजी, 39(6):1161, 1980।


[53] जेम्स ए रसेल. आयामी प्रासंगिक परिप्रेक्ष्य. चेहरे की अभिव्यक्ति का मनोविज्ञान, पृष्ठ 295, 1997.


[54] एंड्री वी सावचेंको। हल्के न्यूरल नेटवर्क के मल्टी-टास्क लर्निंग पर आधारित चेहरे के भाव और विशेषताओं की पहचान। 2021 IEEE 19वीं इंटरनेशनल सिम्पोजियम ऑन इंटेलिजेंट सिस्टम्स एंड इंफॉर्मेटिक्स (SISY), पृष्ठ 119-124। IEEE, 2021।


[55] एंड्री वी सावचेंको, ल्यूडमिला वी सावचेंको, और इल्या मकारोव। एकल चेहरे की अभिव्यक्ति पहचान तंत्रिका नेटवर्क के आधार पर ऑनलाइन सीखने में भावनाओं और जुड़ाव को वर्गीकृत करना। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 13(4):2132–2143, 2022।


[56] झिवेन शाओ, झिलेई लियू, जियानफेई कै, और लिझुआंग मा। संयुक्त चेहरे की क्रिया इकाई का पता लगाने और चेहरे के संरेखण के लिए गहन अनुकूली ध्यान। कंप्यूटर विज़न (ईसीसीवी) पर यूरोपीय सम्मेलन की कार्यवाही में, पृष्ठ 705-720, 2018।


[57] जियाहुई शी, यिबो हू, हैलिन शि, जून वांग, किउ शेन और ताओ मेई। अस्पष्टता में गोता लगाएँ: चेहरे की अभिव्यक्ति पहचान के लिए अव्यक्त वितरण खनन और जोड़ीदार अनिश्चितता अनुमान। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 6248-6257, 2021।


[58] इयान स्नेडन, मार्गरेट मैकरोरी, गैरी मैककाउन और जेनिफर हैनराटी। बेलफास्ट प्रेरित प्राकृतिक भावना डेटाबेस। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):32–41, 2011।


[59] मोहम्मद सोलेमानी, जेरोन लिचटेनॉयर, थिएरी पुन और माजा पेंटिक। प्रभाव पहचान और अंतर्निहित टैगिंग के लिए एक मल्टीमॉडल डेटाबेस। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(1):42–55, 2011।


[60] पावेल टार्नोव्स्की, मार्सिन कोलोड्ज़िएज, आंद्रेज माजकोव्स्की, और रेमिगियस जे राक. चेहरे के भावों का उपयोग करके भावना पहचानना। प्रोसीडिया कंप्यूटर साइंस, 108:1175–1184, 2017.


[61] वाईआई तियान, टेको कनाडे, और जेफ़री एफ कोहन। चेहरे के भावों के विश्लेषण के लिए क्रिया इकाइयों को पहचानना। IEEE ट्रांजेक्शन ऑन पैटर्न एनालिसिस एंड मशीन इंटेलिजेंस, 23(2):97–115, 2001।


[62] वेदत तुमेन, ओमर फारुक एस ओयलेमेज़ और बुरहान एर्गेन। कन्वोल्यूशनल न्यूरल नेटवर्क का उपयोग करके डेटासेट पर चेहरे की भावना पहचान। 2017 इंटरनेशनल आर्टिफिशियल इंटेलिजेंस एंड डेटा प्रोसेसिंग सिम्पोजियम (आईडीएपी) में, पृष्ठ 1-5। IEEE, 2017।


[63] गेटानो वैलेंज़ा, एंटोनियो लानाटा, और एन्ज़ो पास्क्वाले स्किलिंगो। भावात्मक वैलेंस और उत्तेजना पहचान में गैर-रेखीय गतिशीलता की भूमिका। IEEE ट्रांजेक्शन ऑन अफेक्टिव कंप्यूटिंग, 3(2):237–249, 2011।


[64] रवितेजा वेमुलापल्ली और असीम अग्रवाल। चेहरे के भावों की समानता के लिए एक कॉम्पैक्ट एम्बेडिंग। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 5683-5692, 2019।


[65] कन्नन वेंकटरमनन और हरेश रेंगराज राजमोहन। भाषण से भावना पहचान। arXiv प्रीप्रिंट arXiv:1912.10458, 2019।


[66] काई वांग, शियाओजियांग पेंग, जियानफेई यांग, शिजियान लू और यू किआओ। बड़े पैमाने पर चेहरे के भावों की पहचान के लिए अनिश्चितताओं को दबाना। कंप्यूटर विज़न और पैटर्न पहचान पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 6897-6906, 2020।


[67] फ़ांगलेई ज़ू, ज़िचांग टैन, यू झू, झोंगसोंग मा, और गुओडोंग गुओ। वीडियो चेहरे की अभिव्यक्ति पहचान के लिए चिकनी भविष्यवाणी के साथ मोटे-से-बारीक कैस्केड नेटवर्क। कंप्यूटर विज़न और पैटर्न रिकॉग्निशन पर IEEE/CVF सम्मेलन की कार्यवाही में, पृष्ठ 2412–2418, 2022।


[68] सेउंगह्युन यून, सेओख्युन ब्युन और क्योमिन जंग। ऑडियो और टेक्स्ट का उपयोग करके मल्टीमॉडल स्पीच इमोशन रिकग्निशन। 2018 IEEE स्पोकन लैंग्वेज टेक्नोलॉजी वर्कशॉप (SLT) में, पृष्ठ 112-118। IEEE, 2018।


[69] स्टेफानोस ज़ाफ़ेरीउ, दिमित्रियोस कोलियास, मिहालिस ए निकोलाउ, अथानासियोस पापायोआन्नौ, गुओयिंग झाओ, और आइरीन कोट्सिया। एफ़-वाइल्ड: वैलेंस और अराउज़ल'इन-द-वाइल्ड'चैलेंज। कंप्यूटर विज़न और पैटर्न रिकग्निशन वर्कशॉप पर IEEE कॉन्फ्रेंस की कार्यवाही में, पृष्ठ 34-41, 2017।


[70] युआनयुआन झांग, जून डू, ज़िरुई वांग, जियानशु झांग और यानहुई तू। भाषण भावना पहचान के लिए ध्यान आधारित पूरी तरह से कन्वोल्यूशनल नेटवर्क। 2018 एशिया-पैसिफिक सिग्नल एंड इंफॉर्मेशन प्रोसेसिंग एसोसिएशन वार्षिक शिखर सम्मेलन और सम्मेलन (एपीएसआईपीए एएससी), पृष्ठ 1771-1775। IEEE, 2018।


[71] युआन-हैंग झांग, रुलिन हुआंग, जियाबेई ज़ेंग और शिगुआंग शान। एम 3 एफ: वाइल्ड में मल्टी-मोडल निरंतर वैलेंस-उत्तेजना अनुमान। 2020 में 15वें IEEE इंटरनेशनल कॉन्फ्रेंस ऑन ऑटोमेटिक फेस एंड जेस्चर रिकॉग्निशन (FG 2020), पेज 632-636। IEEE, 2020।


यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।