लेखक: यू केन चिया, रुओचेन झाओ, जिंगक्सुआन ली, बोशेंग डिंग, लिडोंग बिंग
हाल ही में, ओपनएआई के चैटजीपीटी [1] जैसे संवादी एआई मॉडल ने उच्च गुणवत्ता वाली लिखित सामग्री उत्पन्न करने, मानव जैसी बातचीत करने, तथ्यात्मक सवालों के जवाब देने और बहुत कुछ करने की क्षमता के साथ जनता की कल्पना पर कब्जा कर लिया है।
ऐसी क्षमता से लैस, Microsoft और Google ने नई सेवाओं [2] की घोषणा की है जो उन्हें पारंपरिक खोज इंजनों के साथ जोड़ती हैं।
वार्तालाप-संचालित खोज इंजनों की नई लहर में स्वाभाविक रूप से जटिल प्रश्नों का उत्तर देने, खोज परिणामों को सारांशित करने और यहां तक कि एक रचनात्मक उपकरण के रूप में कार्य करने की क्षमता है।
हालाँकि, ऐसा करने में, टेक कंपनियों को अब यह सुनिश्चित करने के लिए एक बड़ी नैतिक चुनौती का सामना करना पड़ता है कि उनके मॉडल उपयोगकर्ताओं को झूठे, निराधार या परस्पर विरोधी उत्तरों से भ्रमित न करें। इसलिए, स्वाभाविक रूप से यह सवाल उठता है: क्या चैटजीपीटी जैसे मॉडल तथ्यात्मक सटीकता की गारंटी दे सकते हैं?
इस लेख में, हम माइक्रोसॉफ्ट के नए बिंग [9] और गूगल के बार्ड [3] में कई तथ्यात्मक गलतियों को उजागर करते हैं जो सुझाव देते हैं कि वे वर्तमान में ऐसा नहीं कर सकते।
दुर्भाग्य से, झूठी उम्मीदों के विनाशकारी परिणाम हो सकते हैं। Microsoft की नई बिंग घोषणा के लगभग उसी समय, Google ने जल्दबाजी में बार्ड नामक एक नई संवादी AI सेवा की घोषणा की।
प्रचार के बावजूद, जब बार्ड ने प्रचार वीडियो [14] में एक तथ्यात्मक गलती की, तो उम्मीदें जल्दी से टूट गईं, अंततः Google के शेयर मूल्य [4] को लगभग 8% तक कम कर दिया और इसके बाजार मूल्य से 100 बिलियन डॉलर का सफाया कर दिया।
दूसरी ओर, माइक्रोसॉफ्ट के नए बिंग के संबंध में कम छानबीन की गई है। प्रदर्शन वीडियो [8] में, हमने पाया कि नए बिंग ने एक शीर्ष कवि के रूप में एक रॉक गायक की सिफारिश की, जन्म और मृत्यु की तारीखों को गढ़ा, और यहां तक कि वित्तीय रिपोर्टों का एक संपूर्ण सारांश भी बनाया।
अस्वीकरण [9] के बावजूद कि नई बिंग की प्रतिक्रियाएँ हमेशा तथ्यात्मक नहीं हो सकती हैं, अत्यधिक आशावादी भावनाएँ अनिवार्य रूप से मोहभंग की ओर ले जा सकती हैं।
इसलिए, हमारा लक्ष्य वार्तालाप-संचालित खोज इंजनों द्वारा सामना की जाने वाली तथ्यात्मक चुनौतियों की ओर ध्यान आकर्षित करना है ताकि हम भविष्य में उनसे बेहतर ढंग से निपट सकें।
Microsoft ने AI द्वारा संचालित नया बिंग सर्च इंजन जारी किया, जिसमें दावा किया गया कि यह पारंपरिक खोज इंजनों के दायरे में क्रांति लाएगा। क्या वास्तव में यह मामला है? हमने प्रदर्शन वीडियो [8] और उदाहरण [9] की गहराई में गए, और तीन मुख्य प्रकार के तथ्यात्मक मुद्दे पाए:
वित्तीय रिपोर्ट्स में मनगढ़ंत संख्याएँ: जब आप नए Bing पर भरोसा करते हैं तो सावधान रहें!
हमारे आश्चर्य के लिए, नए बिंग ने प्रदर्शन में वित्तीय रिपोर्ट का संपूर्ण सारांश तैयार किया!
जब माइक्रोसॉफ्ट के कार्यकारी युसूफ मेहदी ने दर्शकों को गैप इंक. 2022 क्यू3 फिस्कल रिपोर्ट [10ए] का सारांश ऑटो-जनरेट करने के लिए "पेज से मुख्य टेकअवे" कमांड का उपयोग करने का तरीका दिखाया, तो उन्हें निम्नलिखित परिणाम प्राप्त हुए
हालांकि, करीब से जांच करने पर, उत्पन्न सारांश में सभी प्रमुख आंकड़े गलत हैं। हम मूल वित्तीय रिपोर्ट के अंशों को मान्य संदर्भों के रूप में नीचे दिखाएंगे।
नई बिंग के अनुसार, समायोजन के बाद ऑपरेटिंग मार्जिन 5.9% था, जबकि स्रोत रिपोर्ट में यह वास्तव में 3.9% था।
इसी तरह, प्रति शेयर समायोजित पतला आय $ 0.42 के रूप में उत्पन्न हुई, जबकि यह $ 0.71 होनी चाहिए।
शुद्ध बिक्री के संबंध में, नए बिंग के सारांश ने "कम दोहरे अंकों में वृद्धि" का दावा किया, जबकि मूल रिपोर्ट में कहा गया था कि "शुद्ध बिक्री मध्य-एकल अंकों में नीचे हो सकती है"।
उत्पन्न आंकड़ों के अलावा जो स्रोत रिपोर्ट में वास्तविक आंकड़ों के साथ विरोधाभासी हैं, हम देखते हैं कि नई बिंग भ्रामक तथ्य भी उत्पन्न कर सकता है जो स्रोत में मौजूद नहीं हैं।
नए बिंग के उत्पन्न सारांश में, "लगभग 7% का ऑपरेटिंग मार्जिन और $1.60 से $1.75 प्रति शेयर की पतला कमाई" स्रोत रिपोर्ट में कहीं नहीं पाई जाती है।
दुर्भाग्य से, स्थिति तब और खराब हो गई जब नए बिंग को "इसकी तुलना तालिका में लुलुलेमोन से करने" का निर्देश दिया गया। नई बिंग द्वारा बनाई गई वित्तीय तुलना तालिका में कई गलतियाँ थीं:
वास्तव में, यह तालिका आधी गलत है। सभी संख्याओं में से, गैप इंक. के कॉलम में 6 में से 3 आंकड़े गलत हैं, और लुलुलेमन के लिए भी यही है।
जैसा कि पहले उल्लेख किया गया है, Gap Inc. का सही ऑपरेटिंग मार्जिन 4.6% (या समायोजन के बाद 3.9%) है, और प्रति शेयर पतला आय $0.77 (या समायोजन के बाद $0.71) होना चाहिए।
नए बिंग ने यह भी दावा किया कि गैप इंक. का नकद और नकद समतुल्य $1.4 बिलियन था, जबकि वास्तव में यह $679 मिलियन था।
Lululemon की 2022 Q3 वित्तीय रिपोर्ट [10b] के अनुसार, सकल मार्जिन 55.9% होना चाहिए, जबकि नए बिंग का दावा है कि यह 58.7% है।
ऑपरेटिंग मार्जिन 19.0% होना चाहिए, जबकि नया बिंग 20.7% होने का दावा करता है। प्रति शेयर पतला आय वास्तव में $2.00 थी, जबकि नए बिंग का दावा है कि यह $1.65 है।
तो, ये आंकड़े कहां से आए? आप सोच रहे होंगे कि क्या यह वह संख्या है जो मूल दस्तावेज़ में किसी अन्य भाग से खो गई थी। जवाब न है। मजे की बात यह है कि ये संख्याएं मूल दस्तावेज में कहीं नहीं पाई जाती हैं और पूरी तरह से गढ़ी हुई हैं।
वास्तव में, यह अभी भी एक खुली शोध चुनौती है कि जेनेरेटिव मॉडल के आउटपुट को अधिक तथ्यात्मक रूप से सीमित किया जाए।
स्पष्ट रूप से बोलते हुए, चैटजीपीटी जैसे लोकप्रिय जनरेटिव एआई मॉडल स्रोत से तथ्यों को सख्ती से कॉपी और पेस्ट करने के बजाय एक निश्चित शब्दावली से उत्पन्न करने के लिए शब्द चुन रहे हैं।
इसलिए, तथ्यात्मक शुद्धता जनरेटिव एआई की जन्मजात चुनौतियों में से एक है और वर्तमान मॉडलों के साथ सख्ती से इसकी गारंटी नहीं दी जा सकती है। जब खोज इंजन की बात आती है तो यह एक बड़ी चिंता है क्योंकि उपयोगकर्ता विश्वसनीय और तथ्यात्मक रूप से सटीक होने के लिए परिणामों पर भरोसा करते हैं।
जापानी शीर्ष कवि: गुप्त रूप से एक रॉक गायक?
हम देखते हैं कि नया बिंग न केवल संख्याओं के लिए बल्कि विशिष्ट संस्थाओं के व्यक्तिगत विवरण के लिए भी तथ्यात्मक गलतियाँ पैदा करता है, जैसा कि ऊपर दिए गए जवाब में दिखाया गया है जब नए बिंग से "शीर्ष जापानी कवियों" के बारे में पूछताछ की गई थी।
जन्म, मृत्यु और व्यवसाय की उत्पन्न तिथि संदर्भित स्रोत से वास्तविक रूप से विरोध करती है। विकिपीडिया [11ए] और आईएमडीबी [11ए] के अनुसार, एरिको किशिदा का जन्म 1929 में हुआ था और उनकी मृत्यु 2011 में हुई थी। वह नाटककार और निबंधकार नहीं थीं, बल्कि बच्चों की पुस्तक की लेखिका और अनुवादक थीं।
नए बिंग ने गॅक्ट को एक शीर्ष जापानी कवि के रूप में घोषित करते समय लगातार बड़ी गड़गड़ाहट की, जबकि वह वास्तव में जापान में एक प्रसिद्ध रॉकस्टार हैं। विकिपीडिया स्रोत [11बी] के अनुसार, वह एक अभिनेता, संगीतकार और गायक हैं। स्रोत में उनके द्वारा किसी भी प्रकार की कविता प्रकाशित करने की कोई जानकारी नहीं है।
बिंग के नाइट क्लब की सिफारिशों के बाद? आप एक बंद दरवाजे का सामना कर सकते हैं।
इसके अलावा, नई बिंग ने "नाइटलाइफ़ कहाँ है?" पूछे जाने पर मेक्सिको सिटी में जाने के लिए संभावित नाइट क्लबों की एक सूची बनाई। खतरनाक रूप से, लगभग सभी क्लबों के खुलने का समय गलत तरीके से उत्पन्न होता है:
हमने कई स्रोतों के साथ खुलने के समय को क्रॉस-चेक किया, जो कि लेख के अंत में भी संलग्न हैं। जबकि एल अल्मासेन [12a] वास्तव में मंगलवार से रविवार तक शाम 7:00 बजे से 3:00 बजे तक खुलता है, न्यू बिंग का दावा है कि यह "मंगलवार से रविवार तक शाम 5:00 बजे से रात 11:00 बजे तक खुला रहता है"।
एल मार्रा [12बी] वास्तव में गुरुवार से शनिवार तक शाम 6:00 बजे से 2:30 बजे तक खुलता है, लेकिन दावा किया जाता है कि यह "गुरुवार से रविवार तक शाम 6:00 बजे से 3:00 बजे तक खुला रहता है"।
गुआडालाजारा डी नोचे [12 सी] हर दिन शाम 5:30 बजे से 1:30 बजे या 12:30 बजे तक खुला रहता है, जबकि नई बिंग का दावा है कि यह "रात 8:00 बजे से 3:00 बजे तक हर दिन" खुला रहता है।
खुलने के समय के अलावा, नए बिंग द्वारा उल्लिखित समीक्षा सितारों और संख्याओं पर लगभग सभी विवरण गलत हैं। Yelp, Tripadvisor, या Google मानचित्र पर खोजने के बावजूद मिलान समीक्षा स्कोर नहीं मिल सकते।
ऊपर बताए गए मामलों के अलावा, हमें उनके प्रदर्शन वीडियो में अन्य समस्याएं भी मिलीं, जैसे उत्पाद की कीमतों में बेमेल, स्टोर के पते की त्रुटियां और समय से संबंधित गलतियां। यदि रुचि है तो उनका सत्यापन करने के लिए आपका स्वागत है।
हालांकि नया बिंग सर्च इंजन अभी तक पूरी तरह से सुलभ नहीं है, हम माइक्रोसॉफ्ट द्वारा प्रदान किए गए कुछ प्रदर्शन उदाहरणों [9] की जांच कर सकते हैं। करीब से जांच करने पर, ये चुनिंदा उदाहरण भी तथ्यात्मक आधार पर संभावित मुद्दों को दिखाते हैं।
"मैं अपने बच्चे के साथ क्या कला विचार कर सकता हूं?" शीर्षक वाले डेमो में, नए बिंग ने प्रत्येक सिफारिश [13] के लिए क्राफ्टिंग सामग्री की अपर्याप्त सूची तैयार की।
उदाहरण के लिए, कार्डबोर्ड बॉक्स गिटार बनाने का सुझाव देते समय, यह आपूर्ति सूचीबद्ध करता है: "एक ऊतक बॉक्स, एक कार्डबोर्ड ट्यूब, कुछ रबड़ बैंड, पेंट और गोंद"।
हालांकि, यह उद्धृत वेबसाइट [13ए] द्वारा सुझाए गए निर्माण कागज, कैंची, वाशी टेप, फोम स्टिकर और लकड़ी के मोतियों को शामिल करने में विफल रहा।
एक और संभावित चिंता यह है कि नई बिंग ने ऐसी सामग्री तैयार की जिसका संदर्भ स्रोतों में कोई तथ्यात्मक आधार नहीं था, 12 प्रदर्शन उदाहरणों में कम से कम 21 बार।
तथ्यात्मक आधार की कमी और स्रोतों की पूरी सूची का हवाला देने में विफलता से उपयोगकर्ता नए बिंग की विश्वसनीयता पर सवाल उठा सकते हैं।
Google ने बार्ड [3] नामक एक संवादी AI सेवा का भी अनावरण किया । पारंपरिक खोज प्रश्नों में टाइप करने के बजाय, उपयोगकर्ता वेब-संचालित चैटबॉट के साथ आकस्मिक और सूचनात्मक बातचीत कर सकते हैं।
उदाहरण के लिए, एक उपयोगकर्ता शुरू में तारों को देखने के लिए सबसे अच्छे नक्षत्रों के बारे में पूछ सकता है, और फिर उन्हें देखने के लिए साल के सबसे अच्छे समय के बारे में पूछ सकता है। हालाँकि, एक स्पष्ट अस्वीकरण यह है कि बार्ड "गलत या अनुचित जानकारी" दे सकता है।
आइए उनके ट्विटर पोस्ट [14] और वीडियो प्रदर्शन [15] में बार्ड की तथ्यात्मक सटीकता की जांच करें।
गूगल के सीईओ सुंदर पिचाई ने हाल ही में बार्ड की क्षमताओं को प्रदर्शित करने के लिए एक छोटा वीडियो [14] पोस्ट किया। हालाँकि, उत्तर में एक त्रुटि थी जिसके बारे में टेलीस्कोप ने पहली एक्सोप्लैनेट छवियों को कैप्चर किया था, जिसे खगोल भौतिकीविदों [16a] द्वारा जल्दी से इंगित किया गया था।
जैसा कि NASA [16बी] ने पुष्टि की है, एक एक्सोप्लैनेट की पहली छवियों को जेम्स वेब स्पेस टेलीस्कोप (JWST) के बजाय वेरी लार्ज टेलीस्कोप (VLT) द्वारा कैप्चर किया गया था।
दुर्भाग्य से, बार्ड एक महंगा प्रयोग साबित हुआ क्योंकि तथ्यात्मक गलती की सूचना मिलने के बाद Google के स्टॉक मूल्य में तेजी से गिरावट आई [4]।
बार्ड के वीडियो प्रदर्शन के संबंध में, ऊपर दी गई छवि दिखाती है कि कैसे Google का बार्ड इस प्रश्न का उत्तर देता है कि तारामंडल कब दिखाई देते हैं [16]। हालाँकि, ओरियन का समय कई स्रोतों के साथ असंगत है।
शीर्ष Google खोज परिणाम [17ए] के अनुसार, तारामंडल जनवरी से मार्च तक सबसे अधिक दिखाई देता है। विकिपीडिया [17बी] के अनुसार, यह जनवरी से अप्रैल तक सबसे अधिक दिखाई देता है।
इसके अलावा, उत्तर अधूरा है क्योंकि तारामंडल की दृश्यता इस बात पर भी निर्भर करती है कि उपयोगकर्ता उत्तरी या दक्षिणी गोलार्ध में है या नहीं।
नई Bing और Bard सेवाएँ व्यवहार में समान रूप से भरोसेमंद नहीं हो सकती हैं। यह खोज परिणामों की गुणवत्ता, संवादात्मक मॉडलों की गुणवत्ता और प्रदान किए गए उत्तरों की पारदर्शिता जैसे कारकों के कारण है।
वर्तमान में, दोनों सेवाएं अपने संवादात्मक एआई मॉडल की प्रतिक्रियाओं को निर्देशित करने के लिए प्रासंगिक सूचना स्रोतों पर निर्भर करती हैं।
इसलिए, उत्तरों की तथ्यात्मक सटीकता सूचना पुनर्प्राप्ति प्रणाली [18] की गुणवत्ता पर निर्भर करती है, और संवादी मॉडल कितनी अच्छी तरह उत्तर उत्पन्न कर सकता है जो तथ्यात्मक रूप से सूचना स्रोतों पर आधारित हैं।
चूंकि सेवाओं का पूरा विवरण जनता के लिए जारी नहीं किया जाता है, यह स्पष्ट नहीं है कि गहन परीक्षण के बिना कौन उच्च तथ्यात्मक सटीकता प्राप्त कर सकता है। दूसरी ओर, हमें लगता है कि पारदर्शिता उतनी ही महत्वपूर्ण है जितनी कि भरोसे की योग्यता।
उदाहरण के लिए, हमने देखा कि नया बिंग अपने उत्तरों के स्रोत के बारे में अधिक पारदर्शी है, क्योंकि यह ज्यादातर मामलों में संदर्भ लिंक प्रदान करता है। यह उपयोगकर्ताओं को स्वतंत्र रूप से तथ्य-जांच करने में सक्षम बनाता है, और हम आशा करते हैं कि भविष्य की संवादी सेवाएं भी यह सुविधा प्रदान करेंगी।
ऊपर दिखाई गई कई तथ्यात्मक गलतियों के माध्यम से, यह स्पष्ट है कि चैटजीपीटी जैसे संवादी एआई मॉडल विश्वसनीय स्रोतों के साथ प्रस्तुत किए जाने पर भी परस्पर विरोधी या गैर-मौजूद तथ्य उत्पन्न कर सकते हैं।
जैसा कि पहले उल्लेख किया गया है, चैटजीपीटी जैसे मॉडलों की तथ्यात्मक नींव सुनिश्चित करना एक महत्वपूर्ण शोध चुनौती है।
उनकी उत्पादक प्रकृति के कारण, उनके आउटपुट [19] को नियंत्रित करना मुश्किल है और यह गारंटी देना और भी कठिन है कि उत्पन्न आउटपुट तथ्यात्मक रूप से सूचना स्रोतों के अनुरूप है।
संवादात्मक एआई को असुरक्षित या अवास्तविक आउटपुट उत्पन्न करने से रोकने के लिए प्रतिबंध लगाने के लिए एक अल्पकालिक समाधान हो सकता है। हालांकि, दुर्भावनापूर्ण पक्ष अंततः सुरक्षा प्रतिबंधों [7] को दरकिनार कर सकते हैं, जबकि तथ्य सत्यापन [20] एक और अनसुलझी शोध चुनौती है।
लंबे समय में, हमें यह स्वीकार करना पड़ सकता है कि मानव और मशीन लेखक समान रूप से अपूर्ण रहेंगे। अधिक भरोसेमंद AI की ओर बढ़ने के लिए, ChatGPT जैसे संवादी AI मॉडल गुप्त ब्लैक बॉक्स [21] के रूप में नहीं रह सकते हैं।
उन्हें अपने डेटा स्रोतों और संभावित पूर्वाग्रहों के बारे में पूरी तरह से पारदर्शी होना चाहिए, रिपोर्ट करें जब उन्हें अपने उत्तरों में कम विश्वास हो, और उनकी तर्क प्रक्रियाओं की व्याख्या करें।
एक व्यवस्थित अवलोकन के बाद, हमने ChatGPT जैसे संवादात्मक AI द्वारा संचालित खोज इंजनों की नई लहर द्वारा प्रदर्शित महत्वपूर्ण तथ्यात्मक सीमाएँ पाई हैं।
संभावित तथ्यात्मक अशुद्धि के अस्वीकरण और निर्णय लेने से पहले अपने निर्णय का उपयोग करने की चेतावनियों के बावजूद, हमें चेरी-चुने हुए प्रदर्शनों में भी कई तथ्यात्मक गलतियों का सामना करना पड़ा।
इस प्रकार, हम मदद नहीं कर सकते हैं लेकिन आश्चर्य करते हैं: विश्वसनीय और तथ्यात्मक उत्तर प्रदान करने के लिए नहीं, तो खोज इंजन का उद्देश्य क्या है? एआई-जनित बनावट से भरे वेब के एक नए युग में, हम सत्यता कैसे सुनिश्चित करेंगे?
Microsoft और Google जैसे तकनीकी दिग्गजों के विशाल संसाधनों के बावजूद, मौजूदा चैटजीपीटी जैसे मॉडल तथ्यात्मक सटीकता सुनिश्चित नहीं कर सकते हैं। फिर भी, हम अभी भी संवादी मॉडलों की क्षमता और अधिक भरोसेमंद एआई के विकास के बारे में आशावादी हैं।
चैटजीपीटी जैसे मॉडल ने काफी संभावनाएं दिखाई हैं और निस्संदेह कई उद्योगों और हमारे दैनिक जीवन के पहलुओं में सुधार करेंगे। हालाँकि, यदि वे मनगढ़ंत सामग्री और अवास्तविक उत्तर उत्पन्न करना जारी रखते हैं, तो जनता कृत्रिम बुद्धिमत्ता के बारे में और भी सतर्क हो सकती है।
इसलिए, विशिष्ट मॉडलों या कंपनियों की आलोचना करने के बजाय, हम शोधकर्ताओं और डेवलपर्स से एआई सेवाओं की पारदर्शिता और तथ्यात्मक शुद्धता में सुधार पर ध्यान केंद्रित करने की उम्मीद करते हैं, जिससे मनुष्य निकट भविष्य में नई तकनीक में उच्च स्तर का विश्वास रख सकें।
संदर्भ लेख
[1] चैटजीपीटी: संवाद के लिए भाषा मॉडल का अनुकूलन: https://openai.com/blog/chatgpt/
[2] बिंग, बार्ड और एआई खोज के भविष्य में आने वाली 7 समस्याएं: https://www.theverge.com/2023/2/9/23592647/ai-search-bing-bard-chatgpt-microsoft-google-problems -चुनौतियां
[3] गूगल: हमारी एआई यात्रा पर एक महत्वपूर्ण अगला कदम: https://blog.google/technology/ai/bard-google-ai-search-updates/
[4] गूगल की बार्ड एआई बॉट की गलती से 100 अरब डॉलर के शेयर साफ हो गए: https://www.bbc.com/news/business-64576225
[5] एक नए एआई-संचालित माइक्रोसॉफ्ट बिंग और एज के साथ खोज को फिर से खोजते हुए, वेब के लिए आपका सह-पायलट: https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new- एआई-पावर्ड-माइक्रोसॉफ्ट-बिंग-एंड-एज-योर-कोपिलॉट-फॉर-द-वेब/
[6] कंपनी के एआई चैटबॉट द्वारा डेमो के दौरान त्रुटि किए जाने के बाद Google शेयरों को 100 अरब डॉलर का नुकसान हुआ: https://www.cnn.com/2023/02/08/tech/google-ai-bard-demo-error
[7] हैकर एक ऐसी सेवा बेच रहे हैं जो मैलवेयर पर चैटजीपीटी प्रतिबंधों को बायपास करती है: -उत्पन्न-मैलवेयर/
नया बिंग तथ्य सत्यापन स्रोत:
[8] माइक्रोसॉफ्ट का प्रेस विज्ञप्ति वीडियो ( https://www.youtube.com/watch?v=rOeRWRJ16yY )
[9] माइक्रोसॉफ्ट का डेमो पेज : ( https://www.bing.com/new )
नई बिंग और वित्तीय रिपोर्ट:
[10ए] वीडियो में दिखाई गई गैप इंक.
[10बी] लुलुलेमन की वित्तीय रिपोर्ट उनकी आधिकारिक वेबसाइट पर मिली: https://corporate.lululemon.com/media/press-releases/2022/12-08-2022-210558496#:\~:text=2022 की तीसरी तिमाही के लिए %2C तीसरे की तुलना में,% 2C और अंतरराष्ट्रीय स्तर पर 41% 25 की वृद्धि हुई
नए बिंग और जापानी कवि:
[11ए] एरिको किशिदा: विकिपीडिया ( https://twitter.com/sundarpichai/status/1622673369480204288 ), IMDB ( https://www.imdb.com/name/nm1063814/ )
[11बी] गैकेट: विकिपीडिया ( https://en.wikipedia.org/wiki/Gackt )
मेक्सिको में नया बिंग और नाइटक्लब:
[12ए] एल अल्मासेन: गूगल मैप्स ( https://goo.gl/maps/3BL27XgWpDVzLLnaA ), रेस्तरां गुरु ( https://restaurantguru.com/El-Almacen-Mexico-City )
[12बी] एल मारारा: गूगल मैप्स ( https://goo.gl/maps/HZFe8xY7uTk1SB6s5 ), रेस्टोरेंट गुरु ( https://restaurantguru.com/El-Marra-Mexico-City )
[12 सी] गुआडालाजारा डी नोचे: त्रिपादवाइजर ( https://www.tripadvisor.es/Attraction_Review-g150800-d3981435-Reviews-Guadalajara_de_Noche-Mexico_City_Central_Mexico_and_Gulf_Coast.html ), गूगल मैप्स ( https://goo.gl/maps/UeHCm1EeJZFP7wZYA )
[13] नए बिंग और शिल्प विचार ( https://www.bing.com/search?q=कला और शिल्प विचार, केवल कार्डबोर्ड बॉक्स, प्लास्टिक की बोतलें, कागज और स्ट्रिंग&iscopilotedu=1&form=MA13G7 का उपयोग करने वाले बच्चे के लिए निर्देशों के साथ ) :
[13ए] उद्धृत वेबसाइट: हैप्पी टोडलर प्लेटाइम ( https://happytoddlerplaytime.com/cardboard-box-guitar-craft-for-kids/ )
बार्ड तथ्य सत्यापन स्रोत:
[14] प्रचार ब्लॉग ( https://twitter.com/sundarpichai/status/1622673369480204288 ) और वीडियो ( https://twitter.com/sundarpichai/status/1622673775182626818 )
[15] वीडियो प्रदर्शन ( https://www.youtube.com/watch?v=yLWXJ22LUEc )
किस टेलीस्कोप ने पहली एक्सोप्लैनेट छवियों को कैप्चर किया
[16ए] ग्रांट ट्रेम्बले (अमेरिकी खगोल वैज्ञानिक) द्वारा ट्विटर ( https://twitter.com/astrogrant/status/1623091683603918849 )
[16बी] नासा: 2एम1207 बी - एक एक्सोप्लैनेट की पहली छवि ( https://exoplanets.nasa.gov/resources/300/2m1207-b-first-image-of-an-exoplanet/ )
जब नक्षत्र दिखाई दे रहे हों
[17ए] गूगल ( https://www.google.com/search?client=safari&rls=en&q=when+is+orion+visible&ie=UTF-8&oe=UTF-8 ) शीर्ष परिणाम: Byju's ( https://byjus. कॉम/प्रश्न-उत्तर/इन-व्हिस-सीजन-ऑफ-द-ईयर-इज़-द-नक्षत्र-ओरियन-विज़िबल-इन-द-स्काई/ )
[17बी] विकिपीडिया पृष्ठ "ओरियन (नक्षत्र)": https://en.wikipedia.org/wiki/Orion_(constellation)
अकादमिक संदर्भ
[18] सूचना पुनर्प्राप्ति का एक परिचय: https://nlp.stanford.edu/IR-book/pdf/irbookonlinereading.pdf
[19] पाठ के नियंत्रित उत्पादन की ओर: http://proceedings.mlr.press/v70/hu17e/hu17e.pdf
[20] फीवर: फैक्ट एक्सट्रैक्शन और वेरिफिकेशन के लिए एक बड़े पैमाने का डेटासेट: https://aclanthology.org/N18-1074.pdf
[21] ब्लैक-बॉक्स के अंदर झांकना: व्याख्या योग्य कृत्रिम बुद्धिमत्ता पर एक सर्वेक्षण (एक्सएआई): https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8466590
इमेज क्रेडिट,हैकरनून एआई इमेज जेनरेटर प्रॉम्प्ट 'रोबोट फैक्ट चेकर एआई चैटबॉट्स सटीकता की जांच करने के लिए आवर्धक ग्लास का उपयोग करता है।'