TLDR 1: डेटासेट अब कोई कठिन आवश्यकता नहीं है
टेक्स्ट-आधारित एआई बनाने के लिए आपको बहुत सारे डेटा की आवश्यकता है, यह विचार अब आंशिक रूप से पुराना हो गया है।
यहां तक कि एक अत्यंत छोटा डेटासेट भी मूल्यवान परिणाम (1 वाक्य ~ 1GB) उत्पन्न कर सकता है।
कुछ ऐसा जो लगभग सभी स्टार्टअप या तो बैठे हैं या हाथ से उत्पादन करने में सक्षम हैं।
TLDR 2: इसके बहुत व्यापक उपयोग के मामले हैं
आप GPT 3.5 को रिमोट और पेड "कॉलेज इंटर्न ऑन डिमांड" के रूप में सोच सकते हैं
आप कभी भी इंटर्न पर 100% सही होने का भरोसा नहीं कर सकते, लेकिन वे उचित पर्यवेक्षण, मार्गदर्शन और योजना के साथ उपयोगी मूल्य प्रदान कर सकते हैं।
एक मूल्य जो अब मूल रूप से बढ़ सकता है और स्केल कर सकता है (वास्तविक मानव इंटर्न के विपरीत)
टीएलडीआर 3: लागत और सीमाएं
सास और ऑनलाइन सेवाओं के लिए क्लासिक यूनिट इकोनॉमिक्स मॉडल अधिकांश एलएलएम की अत्यधिक उच्च लागत के कारण एक चुनौती होगी
OpenAI के पास इस स्थान में बुनियादी ढांचे के लिए एक (अस्थायी) प्रभावी एकाधिकार भी है, और एक ही समय में भागीदार और अनजाने भविष्य के प्रतियोगी दोनों हो सकते हैं।
यदि आप छुट्टी पर थे, और आपको पता नहीं है कि चैटजीपीटी या एलएलएम (बड़े भाषा मॉडल) क्या हैं - आप तकनीक के बारे में जानकारी यहां पा सकते हैं:
तो मुझे लंबे रूप में क्या मतलब है?
एक कप कॉफी लें और कुछ देर आराम करें...
नोट: यह आलेख केवल टेक्स्ट-आधारित मॉडल के लिए डेटा आवश्यकताओं पर चर्चा कर रहा है और कई मामलों में छवि मॉडल पर लागू नहीं होता है (उदाहरण के लिए, कंप्यूटर दृष्टि)।
अतीत में, एक एआई मॉडल के निर्माण में आमतौर पर एक विशिष्ट उपयोग के मामले के लिए एक बड़े पर्याप्त डेटासेट को इकट्ठा करना शामिल था। प्रशिक्षण प्रक्रिया या इसकी कम्प्यूटेशनल लागतों को अनुकूलित करने के लिए विभिन्न एआई मॉडल प्रशिक्षण तकनीकें और उपकरण मौजूद थे।
हालांकि, एआई के प्रशिक्षण में डेटासेट का आकार और गुणवत्ता अभी भी प्रमुख कारकों में से एक थे।
इसका परिणाम निम्न जैसा कुछ ग्राफ होगा:
सभी संख्याएं बड़े अनुमान हैं और उपयोग के मामले, एआई मॉडल और डेटा गुणवत्ता के आधार पर काफी हद तक बदल जाएंगी। कुल्हाड़ियों पर तराजू जानबूझकर अस्पष्ट और गलत हैं क्योंकि वे व्यक्तिपरक हैं। तकनीकी नंबरों के लिए, विशिष्ट उपयोग के मामलों के उद्धरणों में पेपर पढ़ें।
हालाँकि, सामान्य विचार बना रहता है, जहाँ छोटे पैमाने के डेटासेट धीरे-धीरे बेहतर होने से पहले प्रभावी रूप से यादृच्छिक डेटा का उत्पादन करते हैं और अंत में लगभग ~ 500GB भाग में कुछ हद तक उपयोगी होते हैं।
इसने एआई से संबंधित विशेषज्ञता के लगभग हर क्षेत्र में होने वाली डेटासेट हथियारों की दौड़ को जन्म दिया (विशेष रूप से कंप्यूटर दृष्टि से संबंधित कुछ भी)।
जो 2009 से लेकर आज तक कई स्टार्टअप्स में चला, कुछ उल्लेखनीय स्टार्टअप्स को उनके मूल्यवान डेटासेट (और आमतौर पर प्रतिभा) के लिए अधिग्रहित किया गया।
क्योंकि हथियारों की होड़ लगातार बढ़ रही थी, नए स्टार्टअप्स के लिए अपने एआई मॉडल (छोटे डेटासेट) के साथ मौजूदा (बड़े डेटासेट) के खिलाफ प्रतिस्पर्धा करना मुश्किल हो गया।
उदाहरण के लिए, uilicious.com (एक लो-कोड UI टेस्ट ऑटोमेशन स्टार्टअप) पर, हमने AI मॉडल (जिसे TAMI v0.1 कहा जाता है) को प्रशिक्षित करने के लिए अपने सीमित डेटासेट का उपयोग किया। हमने पाया कि यह आधा समय कचरा उगल रहा था, जिससे हमें अपने डेटासेट का निर्माण करते समय मॉडल को अलग करना पड़ा और एआई के बिना कंपनी का विकास करना पड़ा।
बहुत ही सामान्य और गैर-तकनीकी फैशन में, इस तरह से प्रशिक्षित AI को यहाँ से "विशेषीकृत मॉडल" के रूप में संदर्भित किया जाएगा।
वास्तव में सार्वभौमिक या सामान्य-उद्देश्य वाले एआई की तलाश में, विशेष रूप से मानव भाषण बातचीत के क्षेत्र में (जैसा कि मनुष्य सभी चर के सबसे यादृच्छिक के लिए बनाते हैं), बहुत बड़े डेटासेट के लिए एक नए प्रकार के टेक्स्ट-आधारित एआई को प्रशिक्षित करने के प्रयास शुरू हुए। सार्वजनिक डेटा (विकिपीडिया, Quora, StackOverflow, और इंटरनेट टेक्स्ट का आधा हिस्सा) के बारे में सोचें।
क्योंकि इन नए मॉडलों ने डेटासेट आकार और मॉडल आकार (मस्तिष्क के आकार के बारे में सोचें) की सीमाओं को धक्का दिया, उन्हें बनाने के लिए इस्तेमाल किए गए तरीके विशेष मॉडल से अलग हो गए (जो सटीकता और दक्षता पर अधिक जोर देते हैं)।
इस तरह से प्रशिक्षित टेक्स्ट एआई मॉडल को अब सामूहिक रूप से "लार्ज लैंग्वेज मॉडल" (एलएलएम) कहा जाता है।
इस दृष्टिकोण का नकारात्मक पक्ष बहुत बड़ा था, जो कई उपयोग मामलों में इसके शुरुआती अनुप्रयोग को रोक रहा था:
LLM पर Google का प्रभुत्व था (जिसके पास पहले से ही डेटा था और उनके AI सहायक के लिए ऐसा करने का मकसद था) और OpenAI शुरू में। बाद में, माइक्रोसॉफ्ट, अमेज़ॅन, ऐप्पल, सेल्सफोर्स, मेटा और कुछ अन्य दौड़ में शामिल हो गए। हालांकि, इस तरह के एक मॉडल को प्रशिक्षित करने के लिए विशाल आकार और लागत के कारण, यह आम तौर पर गहरी जेब वाली प्रमुख तकनीकी कंपनियों के लिए आरक्षित है।
हालांकि एलएलएम की पहली कुछ पीढ़ियों के निराशाजनक परिणाम हो सकते हैं, क्योंकि वे हर कार्य में लगभग हर विशेष मॉडल से हार गए, जैसे-जैसे साल बीतते गए चीजें बदल गईं और उन्होंने डेटासेट आकार और मॉडल आकार दोनों में वृद्धि की।
उनके लाभ अधिक दिखाई देने लगे:
इसने वक्रों में भारी परिवर्तन किए:
इसने 2019 में एआई-समर्थित बिजनेस मॉडल की एक नई लहर को भी जन्म दिया। स्टार्टअप अब मौजूदा एलएलएम के शीर्ष पर नए एआई मॉडल को प्रशिक्षित कर सकते हैं, जिसमें चैटबॉट से लेकर प्रेजेंटेशन स्लाइड जनरेटर, कोड कोपिलॉट्स, कॉपी राइटिंग और यहां तक कि डीएंडडी गेममास्टर्स भी शामिल हैं।
अब ये एआई मॉडल बड़ी टेक कंपनियों के अनन्य डोमेन में नहीं थे। एआई को उनके बुनियादी ढांचे पर प्रशिक्षण और चलाने के लिए एक छोटे से शुल्क के लिए, ओपनएआई और Google ने एलएलएम से लाभ के साधन के रूप में दूसरों के निर्माण के लिए अपने मॉडल खोलना शुरू कर दिया।
यह स्टार्टअप्स के लिए भी फायदेमंद था, क्योंकि उन्हें अब इन बड़े मॉडलों को आंतरिक रूप से बनाने के लिए आवश्यक आरएंडडी निवेश में लाखों डॉलर की आवश्यकता नहीं थी, जिससे वे अपने प्रूफ-ऑफ-कॉन्सेप्ट के साथ तेजी से बाजार तक पहुंच सकें।
डेटा अभी भी एक तरह से राजा था। यह वक्र को और अधिक सुलभ बनाने के लिए स्थानांतरित कर सकता है, लेकिन इसके लिए बड़े डेटासेट बनाने और मॉडल को ट्यून करने के लिए अभी भी एक टीम की आवश्यकता है।
नतीजतन, जबकि 2019 के कई स्टार्टअप्स ने अपने प्रोटोटाइप बनाने में काफी आसान पाया, कई ने "उपयोगी" सीमा को पार करना मुश्किल पाया, क्योंकि उन्हें अपने डेटासेट को कम रिटर्न के साथ बढ़ाने की जरूरत थी।
यह uilicious.com TAMI v0.2 AI मॉडल के शुरुआती आंतरिक परीक्षणों के अनुरूप है - जबकि GPT कचरे पर एक बड़ा सुधार था, यह अभी भी दिलचस्प और "मेह" के बीच था।
लेकिन तभी 2022 में चीजें वास्तव में बदलने लगती हैं....
पिछले महीने (दिसंबर 2022) GPT3.5 (या चैटGPT जैसा कि इंटरनेट पर जाना जाता है) की रिलीज़ का एआई मॉडल को प्रशिक्षित और ठीक-ठीक करने के तरीके के लिए बहुत बड़ा प्रभाव था।
इसने बेहद छोटे डेटासेट के साथ प्रयोग करने योग्य एआई बनाने की संभावना को अनलॉक कर दिया है - ऐसा कुछ जो अधिकांश स्टार्टअप के पास पहुंच है या हाथ से बना सकता है। एआई प्रशिक्षण के बारे में हम कैसे सोचते हैं, यह एक मौलिक बदलाव है।
uilicious.com पर, जब हमें पता चला कि हमारे बड़े ~100GB डेटासेट में से 1GB से छोटा एक छोटा सा नमूना डेटासेट, जब नई प्रशिक्षण तकनीकों के साथ परिवर्तित और अनुकूलित किया गया, तो "उपयोगी सीमा" को पार कर गया - वह बिंदु जिस पर हमारे उपयोगकर्ता एआई का उपयोग कर सकते हैं और हमारे पास पहले की हर चीज से बेहतर प्रदर्शन कर सकते हैं।
जबकि बड़े डेटासेट के बाद के प्रयोगों ने कम रिटर्न दिखाया। मुख्य बात यह थी कि "उपयोगी उत्पाद बनाने" के लिए कितने कम डेटा की आवश्यकता थी। इस लेख को लिखने में लगने वाले समय की तुलना में हमारे मालिकाना उपयोग के मामले के लिए प्रूफ-ऑफ-कॉन्सेप्ट AI को ठीक करने में हमें कम समय लगा।
GPT3.5 को एक बुनियादी बिल्डिंग ब्लॉक के रूप में उपयोग करते हुए, अब किसी विशेष टीम या व्यक्ति की आवश्यकता के बिना विभिन्न उपयोग के मामलों के लिए उपयोगी AI एप्लिकेशन बनाना संभव है।
उपयोग के मामले के आधार पर, डेटासेट एक वाक्य या पैराग्राफ जितना छोटा हो सकता है, या 100MB या 1GB तक - एक आकार जो कई स्टार्टअप के लिए प्राप्त करने योग्य है।
वैकल्पिक रूप से, यदि आप चैटजीपीटी को इस तरह से कार्य करने के लिए प्राप्त कर सकते हैं जो आपको अपने स्टार्टअप के लिए उपयोगी और महत्वपूर्ण लगे, तो आप इसे एक समर्पित एआई सेवा के रूप में बना सकते हैं।
आवश्यक डेटासेट में भारी कमी ने हमारे पूर्ण डेटासेट के केवल एक छोटे से अंश के साथ "उपयोगी" एआई मॉडल बनाना संभव बना दिया - कुछ ऐसा जो पहले हमारे पैमाने पर "बेकार" या "असंभव" था।
कई मायनों में, डेटा अब राजा नहीं है, उपयोगी अनुप्रयोगों को खोजना और बनाना इस नए एआई के साथ सच्चे किंगमेकर हैं। जहां विचारों का निर्माण और परीक्षण सप्ताहों (वर्षों में नहीं) में किया जा सकता है।
स्क्रीनशॉट हमारे एआई इन एक्शन का एक डेमो है, एक उदाहरण एकीकरण के रूप में, एक संकेत से, पूर्ण यूआई परीक्षण स्क्रिप्ट उत्पन्न करता है। (कई संभावनाओं में से एक)
कुछ ऐसा जो अब एक सप्ताह में किया जा सकता है, सही टीम और सही डेटा के साथ।
यदि आप एआई और यूआई परीक्षण के भविष्य में रुचि रखते हैं तो हमसे संपर्क करें।
GPT-3.5 और अन्य सभी बड़े भाषा मॉडल की सटीकता और विश्वसनीयता की सीमाएँ हैं। यह आंशिक रूप से उत्तर देखने की उनकी प्रकृति के कारण है ।
जबकि सिद्धांत रूप में (अभी तक साबित नहीं हुआ है), एक बड़े पर्याप्त विशिष्ट डेटासेट को देखते हुए, विशेष उपयोग के मामलों के लिए इसकी सटीकता में काफी सुधार किया जा सकता है। हालाँकि, यदि आपके पास इतना बड़ा डेटासेट है, तो संभावना है कि आप पहले से ही "विशेष मॉडल" बना सकते हैं।
अंततः अभी भी, संवेदनशील उद्योगों (जैसे, दवा) में सटीकता और विश्वसनीयता पर यह सीमा केवल एक महत्वपूर्ण मुद्दा है। ज्यादातर मामलों के लिए, यह उपयोग के मामलों को खोजने में केवल एक व्याकुलता है। एक बार एआई "काफी अच्छा" दहलीज पार कर लेता है (जो यह करता है)।
समस्या के लिए एक स्वस्थ और अधिक यथार्थवादी दृष्टिकोण GPT-3.5 को एक दूरस्थ और सशुल्क "स्मार्ट कॉलेज इंटर्न ऑन डिमांड" के रूप में कल्पना करना है।
क्योंकि वास्तविक रूप से, एआई की रिमोट और ऑनलाइन होने के अलावा, ऐसे उपयोग के मामलों में सभी समान सीमाएं हैं:
वास्तविक जीवन के इंटर्न की तुलना में एआई मॉडल का एकमात्र वास्तविक लाभ है:
एआई का मनुष्यों पर नकारात्मक पक्ष यह है कि वे आपको व्यक्तिगत रूप से कॉफी नहीं दे सकते।
एक बार जब आप इसे इन शर्तों में फ्रेम कर लेते हैं, तो यह पता लगाना काफी आसान हो जाता है कि एआई को मौजूदा व्यावसायिक प्रक्रियाओं या उत्पादों में कैसे एकीकृत किया जाए।
थोड़ा और तकनीकी स्तर पर:
एआई में इस नए दृष्टिकोण की यह सबसे बड़ी कमजोरी है, जो बड़े और बेहतर मॉडल पर आधारित है। दुर्भाग्य से, कोई मुफ्त लंच नहीं है।
हालांकि डेटासेट आकार के संदर्भ में विशिष्ट कार्यों के लिए प्रशिक्षित करना सस्ता और आसान है, लेकिन अधिक पारंपरिक एआई मॉडल की तुलना में इसे चलाना काफी महंगा है।
यह सस्ता नहीं है; प्रक्रिया में प्रशिक्षण या उपयोग करने के लिए कितने डेटा की आवश्यकता थी, इस पर निर्भर करते हुए प्रति संकेत और उत्तर की लागत एक प्रतिशत और पचास सेंट के बीच कहीं भी होती है। यह एक विशिष्ट एपीआई सर्वर की तुलना में काफी अधिक है, जो प्रति डॉलर एक लाख अनुरोधों को संभाल सकता है।
इसे सरल शब्दों में कहें तो, एक विशिष्ट मध्यम आकार की शॉपिफाई वेबसाइट के लिए एक लाख उपयोगकर्ता अनुरोधों को पूरा करने की तुलना में एक सेकंड के भीतर एक उपयोगकर्ता के लिए एक एआई क्वेरी को संभालने के लिए सर्वर हार्डवेयर में अधिक लागत आती है।
यह OpenAI या Azure के केवल लाभ कमाने के प्रयास के कारण नहीं है; यह ऐसे बड़े मॉडलों को चलाने के लिए आवश्यक शुद्ध सर्वर हार्डवेयर अवसंरचना के लिए है।
नतीजतन, यह जितना शक्तिशाली है, इतने बड़े भाषा मॉडल एआई को शामिल करने के लिए एक भारी कीमत टैग है और अकेले इस सीमा के कारण सभी उपयोग मामलों के लिए लागू नहीं हो सकता है।
अंतिम परिणाम यह है कि, जबकि कई उपयोग के मामले ऐसे एआई के उपयोग से लाभान्वित हो सकते हैं, सभी उपयोग के मामले इसे वहन नहीं कर सकते हैं; और यह किसी भी कार्यान्वयन के लिए एक महत्वपूर्ण विचार होना चाहिए।
एक सपोर्ट सर्विस डेस्क के लिए, एक विशिष्ट सपोर्ट स्टाफ प्रति घंटे दस ग्राहकों को संभाल सकता है, प्रत्येक ग्राहक के पास औसतन पंद्रह बैक-एंड-प्रॉम्प्ट होते हैं। यदि यह पांच सेंट प्रति संकेत है - यह एक घंटे में $ 7.50 तक जुड़ जाता है यदि एआई का उपयोग किसी एकल सहायक कर्मचारी की नकल करने के लिए किया जाता है।
यह न केवल $15 प्रति घंटे के अमेरिकी कॉल सेंटर स्टाफ के औसत वेतन से सस्ता है, बल्कि यह बहुत अधिक लचीला भी है (कोई स्टाफिंग ओवरहेड नहीं है, तुरंत ऊपर और नीचे स्केल कर सकते हैं)।
इसी तरह, समान "इंटर्न" दृष्टिकोण लेना भी संभव है, जहां यह समर्थन AI केवल L1 समर्थन के रूप में कार्य करता है, जिससे मानव अधिक जटिल मामलों को संभालने की अनुमति देता है। इस परिदृश्य में, यह समझ में आता है जब किया जाता है और प्रति-प्रॉम्प्ट (या प्रति-घंटे) के आधार पर उचित रूप से बढ़ाया जाता है।
औसत कार्यालय कार्यकर्ता प्रति कार्यदिवस लगभग चालीस ईमेल या प्रति माह लगभग 880 ईमेल का जवाब देता है। यहां तक कि पांच सेंट प्रति ईमेल पर भी, जो केवल ईमेल उत्तरों को संभालने के लिए प्रति उपयोगकर्ता औसतन $44 प्रति माह होगा।
इससे भी बदतर यह है कि यह उम्मीद करना उचित है कि ऐसी सेवा के साथ, एक कार्यालय कर्मचारी औसतन अधिक ईमेल का उत्तर देने में सक्षम होगा। अकेले शुद्ध एआई लागत में औसत के लिए दो हजार ईमेल, या एक सौ डॉलर प्रति माह के लिए औसत के लिए अनुचित नहीं होगा।
इस मामले में, अगर सास स्टार्टअप को एक साधारण काम करना है, मान लें कि दस-डॉलर-प्रति-माह मूल्य निर्धारण, वे समय के साथ भारी संभावित नुकसान में पड़ सकते हैं।
यह मूल्य निर्धारण लागत और व्यवसाय मॉडल विशिष्ट, प्रति-उपयोगकर्ता मूल्य निर्धारण मॉडल के विपरीत चलता है जो सास में आम है। यही कारण है कि इस तरह के एकीकरण के लिए इस तरह के एआई के उपयोग को सीमित करने के साधन और बिलिंग के साधन के रूप में "क्रेडिट" प्रणाली होना आम बात है।
यह उम्मीद की जाती है कि समय के साथ, बेहतर फाइन-ट्यूनिंग, प्रतिस्पर्धा और लागत अनुकूलन के साथ, प्रति संकेत मूल्य नीचे जा सकता है। एक और उल्लेखनीय तरीका है कि अधिक डेटा एकत्र करते समय पहले मूल अधिक महंगे AI का उपयोग किया जाए, जिसका उपयोग तब अधिक विशिष्ट और सस्ते मॉडल को प्रशिक्षित करने के लिए किया जाता है। हालाँकि, ये सभी विधियाँ गहरे तकनीकी विवरणों में जाती हैं, जो प्रत्येक उपयोग के मामले के लिए अद्वितीय हो सकती हैं, और आमतौर पर महत्वपूर्ण समय और प्रयास की आवश्यकता होती है।
और फिर भी, जबकि यह बचत में दस गुना कठोर हो सकता है, यह पारंपरिक सास एपीआई सेवाओं की तुलना में मौलिक रूप से अधिक महंगा है।
जबकि मौजूदा ओपन-सोर्स लार्ज लैंग्वेज मॉडल हैं, बहुत स्पष्ट शब्दों में, वे या तो GPT2 या कहीं और GPT3.5 के बीच तुलनीय हैं।
कुछ साधारण मामलों के लिए, एक बार जब वे एक उचित डेटासेट बनाना शुरू कर देते हैं, तो ये छोटे (और सस्ते) मॉडल लागत-कटौती के साधन के रूप में माइग्रेट करने के लिए उपयोगी हो सकते हैं।
हालांकि, अन्य जटिल मामलों के लिए, उनके एआई की जटिलता के कारण ऐसा कदम संभव नहीं हो सकता है, ओपनएआई को कम कीमत के लिए कोई प्रोत्साहन के बिना एक प्रभावी एकाधिकार प्रदान करता है।
हालांकि, यह माना जाता है कि अगले एक या दो वर्षों के दौरान, ओपन-सोर्स समुदाय पकड़ लेगा और ऐसा करने में, शायद बेहतर वैकल्पिक बुनियादी ढाँचे प्रदाताओं के कारण कीमतों में सुधार होगा।
हालांकि, क्योंकि यह एक अनिश्चित भविष्य है, यह हाइलाइट करने लायक है।
जबकि जानबूझकर नहीं, यह महत्वपूर्ण है कि इस स्पेस बिल्ड फीचर सेट के भीतर स्टार्टअप्स जो उनके प्रॉम्प्ट-टू-टेक्स्ट बॉट्स से परे हैं।
उदाहरण के लिए, ऐसे कई छोटे स्टार्टअप थे जिन्होंने GPT3-आधारित बॉट्स या SaaS को विशिष्ट प्रॉम्प्ट-टू-टेक्स्ट उपयोग मामलों के आसपास बनाया, जैसे नाम जनरेटर या सरल इंटरफ़ेस वाले विचार जनरेटर।
सचमुच रातोंरात, चैटजीपीटी के लॉन्च के साथ, इन छोटे एकल-उपयोग-केस टेक्स्ट-टू-टेक्स्ट सास को बेमानी बना दिया गया था, क्योंकि रोज़मर्रा के लोग अब चैटजीपीटी के माध्यम से समान कार्यक्षमता मुफ्त में प्राप्त कर सकते हैं।
हालांकि हो सकता है कि OpenAI का इरादा उन भागीदारों के साथ प्रतिस्पर्धा करने का नहीं रहा हो, जो उन पर बने हैं, ऐसा करना उनकी अपरिहार्य प्रकृति हो सकती है, क्योंकि वे अपने मॉडल और चैटGPT में सुधार करते रहते हैं।
इस तरह, यह सुनिश्चित करने के लिए कि यह खुद को दोहराता नहीं है, इस तकनीक के आसपास के किसी भी व्यवसाय मॉडल के लिए यह पता लगाना महत्वपूर्ण है कि वे केवल शीघ्र-टू-टेक्स्ट से परे क्या अतिरिक्त मूल्य प्रदान करते हैं, शायद बेहतर उपयोगकर्ता अनुभव या मौजूदा टूलिंग के साथ एकीकरण, आदि।
इंटर्न मॉडल की याद दिलाते हुए, कल कैंसर के इलाज के लिए इसका उपयोग करने की अपेक्षा न करें। तो कृपया एआई को पृथ्वी पर हर उत्पाद और स्टार्टअप में न डालें, जब ऐसा करने से अंतिम उपयोगकर्ता को कोई लाभ नहीं होता है।
~ अगली बार तक 🖖 जियो और खूब तरक्की करो
यूजीन चीह: uilicious.com का सीटीओ
यह लेख मूल रूप से लेखक के सबस्टैक पर पोस्ट किया गया था
Swyx इस तेजी से अस्त-व्यस्त और बढ़ते हुए स्थान में, विभिन्न सूचनाओं को समेकित करने के प्रयास में भी एक उत्कृष्ट कार्य करता है, जो पढ़ने योग्य है (अनुशंसित!!!)
वर्तमान में, BLOOM GPT3 (3.5 नहीं) के लिए मुख्य ओपनसोर्स दावेदार है: https://towardsdatascience.com/run-bloom-the-largest-open-access-ai-model-on-your-desktop-computer-f48e1e2a9a32
एआई/एमएल उद्योग में, एलएलएम की नई अवधारणाओं को जल्दी से सीखने और उन्हें लागू करने की क्षमता को "जीरो-शॉट", "वन-शॉट" और "फ्यू-शॉट" लर्निंग नामक परीक्षणों द्वारा मापा और मापा जाता है।
आम तौर पर एआई इन परीक्षणों में जितना बेहतर करता है, उतना ही कम डेटा आपको इसे अपने उपयोग के मामले में प्रशिक्षित करने की आवश्यकता होती है।
मेरी राय में: यह समझ में आता है - किसने सोचा होगा कि मनुष्यों के बाद बनाया गया एक तंत्रिका नेटवर्क मनुष्यों की तरह काम करेगा? और टी-शेप एजुकेशन मॉडल से लाभ उठाएं। जहां सामान्यीकृत ज्ञान का एक बड़ा दायरा विशेषज्ञता के क्षेत्र में विशेष ज्ञान सीखने की क्षमता में सुधार करने में मदद करता है। (यह कथन किसी भी डेटा द्वारा समर्थित नहीं है)