paint-brush
वीसी और संस्थापक नोट: चैटजीपीटी/एलएलएम एक बड़ा कदम है - यहां जानिए क्योंद्वारा@picocreator
2,559 रीडिंग
2,559 रीडिंग

वीसी और संस्थापक नोट: चैटजीपीटी/एलएलएम एक बड़ा कदम है - यहां जानिए क्यों

द्वारा picocreator15m2022/12/18
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

- डेटा अब एक कठिन आवश्यकता नहीं है, आप 1 या अधिक वाक्यों के साथ प्रयोग करने योग्य एआई बना सकते हैं - उपयोग के मामलों को खोजने के लिए सामान्य रूपरेखा, एआई को दूरस्थ "कॉलेज इंटर्न ऑन डिमांड" के रूप में सोचना है - यह मुफ़्त नहीं है, यह वास्तव में महंगा है, और OpenAI एक भागीदार और संभावित ख़तरा दोनों है।
featured image - वीसी और संस्थापक नोट: चैटजीपीटी/एलएलएम एक बड़ा कदम है - यहां जानिए क्यों
picocreator HackerNoon profile picture
0-item
1-item


TLDR 1: डेटासेट अब कोई कठिन आवश्यकता नहीं है

टेक्स्ट-आधारित एआई बनाने के लिए आपको बहुत सारे डेटा की आवश्यकता है, यह विचार अब आंशिक रूप से पुराना हो गया है।

यहां तक कि एक अत्यंत छोटा डेटासेट भी मूल्यवान परिणाम (1 वाक्य ~ 1GB) उत्पन्न कर सकता है।


कुछ ऐसा जो लगभग सभी स्टार्टअप या तो बैठे हैं या हाथ से उत्पादन करने में सक्षम हैं।


TLDR 2: इसके बहुत व्यापक उपयोग के मामले हैं

आप GPT 3.5 को रिमोट और पेड "कॉलेज इंटर्न ऑन डिमांड" के रूप में सोच सकते हैं


आप कभी भी इंटर्न पर 100% सही होने का भरोसा नहीं कर सकते, लेकिन वे उचित पर्यवेक्षण, मार्गदर्शन और योजना के साथ उपयोगी मूल्य प्रदान कर सकते हैं।


एक मूल्य जो अब मूल रूप से बढ़ सकता है और स्केल कर सकता है (वास्तविक मानव इंटर्न के विपरीत)


टीएलडीआर 3: लागत और सीमाएं

सास और ऑनलाइन सेवाओं के लिए क्लासिक यूनिट इकोनॉमिक्स मॉडल अधिकांश एलएलएम की अत्यधिक उच्च लागत के कारण एक चुनौती होगी


OpenAI के पास इस स्थान में बुनियादी ढांचे के लिए एक (अस्थायी) प्रभावी एकाधिकार भी है, और एक ही समय में भागीदार और अनजाने भविष्य के प्रतियोगी दोनों हो सकते हैं।


यदि आप छुट्टी पर थे, और आपको पता नहीं है कि चैटजीपीटी या एलएलएम (बड़े भाषा मॉडल) क्या हैं - आप तकनीक के बारे में जानकारी यहां पा सकते हैं:


तो मुझे लंबे रूप में क्या मतलब है?


एक कप कॉफी लें और कुछ देर आराम करें...


भाग 1: डेटा अब कठिन आवश्यकता नहीं है

पारंपरिक पाठ-आधारित एआई डेटा आवश्यकताओं पर क्रैश कोर्स

नोट: यह आलेख केवल टेक्स्ट-आधारित मॉडल के लिए डेटा आवश्यकताओं पर चर्चा कर रहा है और कई मामलों में छवि मॉडल पर लागू नहीं होता है (उदाहरण के लिए, कंप्यूटर दृष्टि)।

अतीत में, एक एआई मॉडल के निर्माण में आमतौर पर एक विशिष्ट उपयोग के मामले के लिए एक बड़े पर्याप्त डेटासेट को इकट्ठा करना शामिल था। प्रशिक्षण प्रक्रिया या इसकी कम्प्यूटेशनल लागतों को अनुकूलित करने के लिए विभिन्न एआई मॉडल प्रशिक्षण तकनीकें और उपकरण मौजूद थे।


हालांकि, एआई के प्रशिक्षण में डेटासेट का आकार और गुणवत्ता अभी भी प्रमुख कारकों में से एक थे।


इसका परिणाम निम्न जैसा कुछ ग्राफ होगा:


पारंपरिक एआई मॉडल को उपयोगी होने से पहले अच्छे डेटासेट की जरूरत दिखाने वाला चार्ट, बढ़े हुए डेटासेट के साथ एआई मॉडल की गुणवत्ता में कम रिटर्न के साथ

सभी संख्याएं बड़े अनुमान हैं और उपयोग के मामले, एआई मॉडल और डेटा गुणवत्ता के आधार पर काफी हद तक बदल जाएंगी। कुल्हाड़ियों पर तराजू जानबूझकर अस्पष्ट और गलत हैं क्योंकि वे व्यक्तिपरक हैं। तकनीकी नंबरों के लिए, विशिष्ट उपयोग के मामलों के उद्धरणों में पेपर पढ़ें।


हालाँकि, सामान्य विचार बना रहता है, जहाँ छोटे पैमाने के डेटासेट धीरे-धीरे बेहतर होने से पहले प्रभावी रूप से यादृच्छिक डेटा का उत्पादन करते हैं और अंत में लगभग ~ 500GB भाग में कुछ हद तक उपयोगी होते हैं।


इसने एआई से संबंधित विशेषज्ञता के लगभग हर क्षेत्र में होने वाली डेटासेट हथियारों की दौड़ को जन्म दिया (विशेष रूप से कंप्यूटर दृष्टि से संबंधित कुछ भी)।


जो 2009 से लेकर आज तक कई स्टार्टअप्स में चला, कुछ उल्लेखनीय स्टार्टअप्स को उनके मूल्यवान डेटासेट (और आमतौर पर प्रतिभा) के लिए अधिग्रहित किया गया।


क्योंकि हथियारों की होड़ लगातार बढ़ रही थी, नए स्टार्टअप्स के लिए अपने एआई मॉडल (छोटे डेटासेट) के साथ मौजूदा (बड़े डेटासेट) के खिलाफ प्रतिस्पर्धा करना मुश्किल हो गया।


उदाहरण के लिए, uilicious.com (एक लो-कोड UI टेस्ट ऑटोमेशन स्टार्टअप) पर, हमने AI मॉडल (जिसे TAMI v0.1 कहा जाता है) को प्रशिक्षित करने के लिए अपने सीमित डेटासेट का उपयोग किया। हमने पाया कि यह आधा समय कचरा उगल रहा था, जिससे हमें अपने डेटासेट का निर्माण करते समय मॉडल को अलग करना पड़ा और एआई के बिना कंपनी का विकास करना पड़ा।


बहुत ही सामान्य और गैर-तकनीकी फैशन में, इस तरह से प्रशिक्षित AI को यहाँ से "विशेषीकृत मॉडल" के रूप में संदर्भित किया जाएगा।


एलएलएम या बड़े भाषा मॉडल की शुरुआत

वास्तव में सार्वभौमिक या सामान्य-उद्देश्य वाले एआई की तलाश में, विशेष रूप से मानव भाषण बातचीत के क्षेत्र में (जैसा कि मनुष्य सभी चर के सबसे यादृच्छिक के लिए बनाते हैं), बहुत बड़े डेटासेट के लिए एक नए प्रकार के टेक्स्ट-आधारित एआई को प्रशिक्षित करने के प्रयास शुरू हुए। सार्वजनिक डेटा (विकिपीडिया, Quora, StackOverflow, और इंटरनेट टेक्स्ट का आधा हिस्सा) के बारे में सोचें।


क्योंकि इन नए मॉडलों ने डेटासेट आकार और मॉडल आकार (मस्तिष्क के आकार के बारे में सोचें) की सीमाओं को धक्का दिया, उन्हें बनाने के लिए इस्तेमाल किए गए तरीके विशेष मॉडल से अलग हो गए (जो सटीकता और दक्षता पर अधिक जोर देते हैं)।


इस तरह से प्रशिक्षित टेक्स्ट एआई मॉडल को अब सामूहिक रूप से "लार्ज लैंग्वेज मॉडल" (एलएलएम) कहा जाता है।


इस दृष्टिकोण का नकारात्मक पक्ष बहुत बड़ा था, जो कई उपयोग मामलों में इसके शुरुआती अनुप्रयोग को रोक रहा था:

  • अत्यधिक बड़े डेटासेट को बनाने और बनाए रखने की आवश्यकता है (GPT-3 में 45 TB का उपयोग किया गया है)


  • प्रशिक्षण की लागत लाखों डॉलर है (GPT-3 को प्रशिक्षित करने के लिए $4M से अधिक की लागत, GPT-3.5/chatGPT संभवतः अधिक है)


  • निजी प्रशिक्षण डेटा की कमी के कारण विशेष उपयोग के मामलों के लिए सीमित उपयोग


  • विशेष उपयोग के मामलों में विशेष मॉडलों की तुलना में कम सटीकता


  • चलाने के लिए महंगा (इस पर बाद में सीमाओं में अधिक)


LLM पर Google का प्रभुत्व था (जिसके पास पहले से ही डेटा था और उनके AI सहायक के लिए ऐसा करने का मकसद था) और OpenAI शुरू में। बाद में, माइक्रोसॉफ्ट, अमेज़ॅन, ऐप्पल, सेल्सफोर्स, मेटा और कुछ अन्य दौड़ में शामिल हो गए। हालांकि, इस तरह के एक मॉडल को प्रशिक्षित करने के लिए विशाल आकार और लागत के कारण, यह आम तौर पर गहरी जेब वाली प्रमुख तकनीकी कंपनियों के लिए आरक्षित है।


हालांकि एलएलएम की पहली कुछ पीढ़ियों के निराशाजनक परिणाम हो सकते हैं, क्योंकि वे हर कार्य में लगभग हर विशेष मॉडल से हार गए, जैसे-जैसे साल बीतते गए चीजें बदल गईं और उन्होंने डेटासेट आकार और मॉडल आकार दोनों में वृद्धि की।


उनके लाभ अधिक दिखाई देने लगे:

  • तथ्य और सटीकता एक तरफ, वे मनुष्यों से बात करने में वास्तव में अच्छे हो गए


  • कई (लेकिन सभी नहीं) मामलों में: डेटासेट को उचित प्रारूप में दिए जाने पर वे नए विशेष ज्ञान सीखने में वास्तव में अच्छे होते हैं (आप इसे केवल डंप नहीं कर सकते हैं)


इसने वक्रों में भारी परिवर्तन किए:


पारंपरिक मॉडलों की तुलना में कम प्रशिक्षण डेटा के साथ, दिलचस्प एआई प्रोटोटाइप को तेज बनाने की अनुमति देने में, एलएलएम पर निर्माण करने वाले चार्ट ने वक्र को स्थानांतरित कर दिया।


इसने 2019 में एआई-समर्थित बिजनेस मॉडल की एक नई लहर को भी जन्म दिया। स्टार्टअप अब मौजूदा एलएलएम के शीर्ष पर नए एआई मॉडल को प्रशिक्षित कर सकते हैं, जिसमें चैटबॉट से लेकर प्रेजेंटेशन स्लाइड जनरेटर, कोड कोपिलॉट्स, कॉपी राइटिंग और यहां तक कि डीएंडडी गेममास्टर्स भी शामिल हैं।


अब ये एआई मॉडल बड़ी टेक कंपनियों के अनन्य डोमेन में नहीं थे। एआई को उनके बुनियादी ढांचे पर प्रशिक्षण और चलाने के लिए एक छोटे से शुल्क के लिए, ओपनएआई और Google ने एलएलएम से लाभ के साधन के रूप में दूसरों के निर्माण के लिए अपने मॉडल खोलना शुरू कर दिया।


यह स्टार्टअप्स के लिए भी फायदेमंद था, क्योंकि उन्हें अब इन बड़े मॉडलों को आंतरिक रूप से बनाने के लिए आवश्यक आरएंडडी निवेश में लाखों डॉलर की आवश्यकता नहीं थी, जिससे वे अपने प्रूफ-ऑफ-कॉन्सेप्ट के साथ तेजी से बाजार तक पहुंच सकें।


डेटा अभी भी एक तरह से राजा था। यह वक्र को और अधिक सुलभ बनाने के लिए स्थानांतरित कर सकता है, लेकिन इसके लिए बड़े डेटासेट बनाने और मॉडल को ट्यून करने के लिए अभी भी एक टीम की आवश्यकता है।


नतीजतन, जबकि 2019 के कई स्टार्टअप्स ने अपने प्रोटोटाइप बनाने में काफी आसान पाया, कई ने "उपयोगी" सीमा को पार करना मुश्किल पाया, क्योंकि उन्हें अपने डेटासेट को कम रिटर्न के साथ बढ़ाने की जरूरत थी।


यह uilicious.com TAMI v0.2 AI मॉडल के शुरुआती आंतरिक परीक्षणों के अनुरूप है - जबकि GPT कचरे पर एक बड़ा सुधार था, यह अभी भी दिलचस्प और "मेह" के बीच था।


लेकिन तभी 2022 में चीजें वास्तव में बदलने लगती हैं....

कितने बड़े भाषा मॉडल कम-शॉट सीखने वाले हैं I

चार्ट दिखा रहा है कि कैसे GPT2 की तुलना में GPT3.5 में "उपयोगी" सीमा को पार करने के लिए डेटासेट आवश्यकताओं में पर्याप्त कमी है


पिछले महीने (दिसंबर 2022) GPT3.5 (या चैटGPT जैसा कि इंटरनेट पर जाना जाता है) की रिलीज़ का एआई मॉडल को प्रशिक्षित और ठीक-ठीक करने के तरीके के लिए बहुत बड़ा प्रभाव था।


इसने बेहद छोटे डेटासेट के साथ प्रयोग करने योग्य एआई बनाने की संभावना को अनलॉक कर दिया है - ऐसा कुछ जो अधिकांश स्टार्टअप के पास पहुंच है या हाथ से बना सकता है। एआई प्रशिक्षण के बारे में हम कैसे सोचते हैं, यह एक मौलिक बदलाव है।


uilicious.com पर, जब हमें पता चला कि हमारे बड़े ~100GB डेटासेट में से 1GB से छोटा एक छोटा सा नमूना डेटासेट, जब नई प्रशिक्षण तकनीकों के साथ परिवर्तित और अनुकूलित किया गया, तो "उपयोगी सीमा" को पार कर गया - वह बिंदु जिस पर हमारे उपयोगकर्ता एआई का उपयोग कर सकते हैं और हमारे पास पहले की हर चीज से बेहतर प्रदर्शन कर सकते हैं।


जबकि बड़े डेटासेट के बाद के प्रयोगों ने कम रिटर्न दिखाया। मुख्य बात यह थी कि "उपयोगी उत्पाद बनाने" के लिए कितने कम डेटा की आवश्यकता थी। इस लेख को लिखने में लगने वाले समय की तुलना में हमारे मालिकाना उपयोग के मामले के लिए प्रूफ-ऑफ-कॉन्सेप्ट AI को ठीक करने में हमें कम समय लगा।


GPT3.5 को एक बुनियादी बिल्डिंग ब्लॉक के रूप में उपयोग करते हुए, अब किसी विशेष टीम या व्यक्ति की आवश्यकता के बिना विभिन्न उपयोग के मामलों के लिए उपयोगी AI एप्लिकेशन बनाना संभव है।


उपयोग के मामले के आधार पर, डेटासेट एक वाक्य या पैराग्राफ जितना छोटा हो सकता है, या 100MB या 1GB तक - एक आकार जो कई स्टार्टअप के लिए प्राप्त करने योग्य है।


वैकल्पिक रूप से, यदि आप चैटजीपीटी को इस तरह से कार्य करने के लिए प्राप्त कर सकते हैं जो आपको अपने स्टार्टअप के लिए उपयोगी और महत्वपूर्ण लगे, तो आप इसे एक समर्पित एआई सेवा के रूप में बना सकते हैं।


आवश्यक डेटासेट में भारी कमी ने हमारे पूर्ण डेटासेट के केवल एक छोटे से अंश के साथ "उपयोगी" एआई मॉडल बनाना संभव बना दिया - कुछ ऐसा जो पहले हमारे पैमाने पर "बेकार" या "असंभव" था।


कई मायनों में, डेटा अब राजा नहीं है, उपयोगी अनुप्रयोगों को खोजना और बनाना इस नए एआई के साथ सच्चे किंगमेकर हैं। जहां विचारों का निर्माण और परीक्षण सप्ताहों (वर्षों में नहीं) में किया जा सकता है।


स्क्रीनशॉट हमारे एआई इन एक्शन का एक डेमो है, एक उदाहरण एकीकरण के रूप में, एक संकेत से, पूर्ण यूआई परीक्षण स्क्रिप्ट उत्पन्न करता है। (कई संभावनाओं में से एक)

कुछ ऐसा जो अब एक सप्ताह में किया जा सकता है, सही टीम और सही डेटा के साथ।

यदि आप एआई और यूआई परीक्षण के भविष्य में रुचि रखते हैं तो हमसे संपर्क करें।


भाग 2: द हंट फॉर यूज़ केस (और एआई इंटर्न) शुरू हो गया है

उपयोग के मामलों को खोजने के लिए इंटर्न फ्रेमवर्क

GPT-3.5 और अन्य सभी बड़े भाषा मॉडल की सटीकता और विश्वसनीयता की सीमाएँ हैं। यह आंशिक रूप से उत्तर देखने की उनकी प्रकृति के कारण है


जबकि सिद्धांत रूप में (अभी तक साबित नहीं हुआ है), एक बड़े पर्याप्त विशिष्ट डेटासेट को देखते हुए, विशेष उपयोग के मामलों के लिए इसकी सटीकता में काफी सुधार किया जा सकता है। हालाँकि, यदि आपके पास इतना बड़ा डेटासेट है, तो संभावना है कि आप पहले से ही "विशेष मॉडल" बना सकते हैं।


अंततः अभी भी, संवेदनशील उद्योगों (जैसे, दवा) में सटीकता और विश्वसनीयता पर यह सीमा केवल एक महत्वपूर्ण मुद्दा है। ज्यादातर मामलों के लिए, यह उपयोग के मामलों को खोजने में केवल एक व्याकुलता है। एक बार एआई "काफी अच्छा" दहलीज पार कर लेता है (जो यह करता है)।


समस्या के लिए एक स्वस्थ और अधिक यथार्थवादी दृष्टिकोण GPT-3.5 को एक दूरस्थ और सशुल्क "स्मार्ट कॉलेज इंटर्न ऑन डिमांड" के रूप में कल्पना करना है।


क्योंकि वास्तविक रूप से, एआई की रिमोट और ऑनलाइन होने के अलावा, ऐसे उपयोग के मामलों में सभी समान सीमाएं हैं:


  • इंटर्न पर हर समय 100% सही होने का भरोसा न करें (दवा का निदान तो दूर की बात है)


  • एक कार्यप्रवाह बनाएं जो इंटर्न को उचित पर्यवेक्षण, मार्गदर्शन और योजना के साथ सुरक्षित रूप से उपयोगी मूल्य प्रदान करने की अनुमति देता है


  • एक-दिवसीय या एक-महीने के इंटर्न के लिए, आप क्रमशः एक घंटे या एक सप्ताह के प्रशिक्षण में उन्हें जल्दी से उत्पादक बनाने के लिए एक औपचारिक प्रशिक्षण योजना तैयार करेंगे- आपको अपने इंटर्न का भुगतान करना चाहिए; वे स्वतंत्र नहीं हैं (मनुष्यों और एआई दोनों के लिए)


वास्तविक जीवन के इंटर्न की तुलना में एआई मॉडल का एकमात्र वास्तविक लाभ है:

  • वे स्कूल के मौसम से प्रभावित नहीं होते हैं


  • आप किसी भी समय दोनों को ऊपर और नीचे स्केल कर सकते हैं


  • प्रशिक्षण कुछ ऐसा है जिसे आप प्रति बैच एक बार कर सकते हैं और अधिक से अधिक उदाहरणों तक बढ़ा सकते हैं


एआई का मनुष्यों पर नकारात्मक पक्ष यह है कि वे आपको व्यक्तिगत रूप से कॉफी नहीं दे सकते।


एक बार जब आप इसे इन शर्तों में फ्रेम कर लेते हैं, तो यह पता लगाना काफी आसान हो जाता है कि एआई को मौजूदा व्यावसायिक प्रक्रियाओं या उत्पादों में कैसे एकीकृत किया जाए।

  • लेख विचार उत्पन्न करने की आवश्यकता है? एक दिवसीय इंटर्न प्राप्त करें।


  • कुछ मालिकाना जावा को जावास्क्रिप्ट कोड में बदलने की आवश्यकता है? प्रक्रिया कैसे करें, इस पर कुछ बुनियादी प्रशिक्षण के साथ एक महीने का इंटर्न प्राप्त करें।


  • और इसी तरह और आगे - जहां प्रक्रिया के किसी भी बिंदु पर इंटर्न के साथ पर्यवेक्षण और पुनरावृति में मानव को लूप से हटाया नहीं जाना चाहिए।


थोड़ा और तकनीकी स्तर पर:

  • शीघ्र इंजीनियरिंग का उपयोग करके एक दिवसीय इंटर्न को जल्दी से बनाया जा सकता है; आप जो कुछ भी करने के लिए चैटजीपीटी प्राप्त करने का प्रबंधन करते हैं वह इस श्रेणी में फिट बैठता है। नकारात्मक पक्ष यह है कि आप प्रशिक्षण डेटा में क्या फिट कर सकते हैं इसकी एक व्यावहारिक सीमा (लगभग 2000 शब्द) है। प्लस साइड यह है कि आप प्रयोग कर सकते हैं और सेकंड में इसे सेट कर सकते हैं, और चैटजीपीटी के साथ परीक्षण करना बहुत आसान है।


  • एक महीने का इंटर्न (या बीच में कुछ भी) वह जगह है जहां आपके पास एक औपचारिक प्रशिक्षण डेटासेट होना शुरू होता है, जिसे वे याद कर सकते हैं और सीख सकते हैं। वे प्रशिक्षण सामग्री के अनुसार अधिक परिस्थितियों को संभालने में सक्षम होंगे। नकारात्मक पक्ष यह है कि आपको वास्तव में उस प्रशिक्षण सामग्री को तैयार करने की आवश्यकता है; यह अधिक तकनीकी रूप से शामिल प्रक्रिया है।

भाग 3: लागत और व्यवसाय की सीमाएँ

प्रति संकेत लागत व्यवसाय मॉडल को बनाएगी या तोड़ देगी

एआई में इस नए दृष्टिकोण की यह सबसे बड़ी कमजोरी है, जो बड़े और बेहतर मॉडल पर आधारित है। दुर्भाग्य से, कोई मुफ्त लंच नहीं है।


हालांकि डेटासेट आकार के संदर्भ में विशिष्ट कार्यों के लिए प्रशिक्षित करना सस्ता और आसान है, लेकिन अधिक पारंपरिक एआई मॉडल की तुलना में इसे चलाना काफी महंगा है।


यह सस्ता नहीं है; प्रक्रिया में प्रशिक्षण या उपयोग करने के लिए कितने डेटा की आवश्यकता थी, इस पर निर्भर करते हुए प्रति संकेत और उत्तर की लागत एक प्रतिशत और पचास सेंट के बीच कहीं भी होती है। यह एक विशिष्ट एपीआई सर्वर की तुलना में काफी अधिक है, जो प्रति डॉलर एक लाख अनुरोधों को संभाल सकता है।


इसे सरल शब्दों में कहें तो, एक विशिष्ट मध्यम आकार की शॉपिफाई वेबसाइट के लिए एक लाख उपयोगकर्ता अनुरोधों को पूरा करने की तुलना में एक सेकंड के भीतर एक उपयोगकर्ता के लिए एक एआई क्वेरी को संभालने के लिए सर्वर हार्डवेयर में अधिक लागत आती है।


यह OpenAI या Azure के केवल लाभ कमाने के प्रयास के कारण नहीं है; यह ऐसे बड़े मॉडलों को चलाने के लिए आवश्यक शुद्ध सर्वर हार्डवेयर अवसंरचना के लिए है।


नतीजतन, यह जितना शक्तिशाली है, इतने बड़े भाषा मॉडल एआई को शामिल करने के लिए एक भारी कीमत टैग है और अकेले इस सीमा के कारण सभी उपयोग मामलों के लिए लागू नहीं हो सकता है।


अंतिम परिणाम यह है कि, जबकि कई उपयोग के मामले ऐसे एआई के उपयोग से लाभान्वित हो सकते हैं, सभी उपयोग के मामले इसे वहन नहीं कर सकते हैं; और यह किसी भी कार्यान्वयन के लिए एक महत्वपूर्ण विचार होना चाहिए।

उदाहरण ए: समर्थन सेवा चैट

एक सपोर्ट सर्विस डेस्क के लिए, एक विशिष्ट सपोर्ट स्टाफ प्रति घंटे दस ग्राहकों को संभाल सकता है, प्रत्येक ग्राहक के पास औसतन पंद्रह बैक-एंड-प्रॉम्प्ट होते हैं। यदि यह पांच सेंट प्रति संकेत है - यह एक घंटे में $ 7.50 तक जुड़ जाता है यदि एआई का उपयोग किसी एकल सहायक कर्मचारी की नकल करने के लिए किया जाता है।


यह न केवल $15 प्रति घंटे के अमेरिकी कॉल सेंटर स्टाफ के औसत वेतन से सस्ता है, बल्कि यह बहुत अधिक लचीला भी है (कोई स्टाफिंग ओवरहेड नहीं है, तुरंत ऊपर और नीचे स्केल कर सकते हैं)।


इसी तरह, समान "इंटर्न" दृष्टिकोण लेना भी संभव है, जहां यह समर्थन AI केवल L1 समर्थन के रूप में कार्य करता है, जिससे मानव अधिक जटिल मामलों को संभालने की अनुमति देता है। इस परिदृश्य में, यह समझ में आता है जब किया जाता है और प्रति-प्रॉम्प्ट (या प्रति-घंटे) के आधार पर उचित रूप से बढ़ाया जाता है।

उदाहरण बी: ड्राफ्ट ईमेल के लिए एक सास सेवा

औसत कार्यालय कार्यकर्ता प्रति कार्यदिवस लगभग चालीस ईमेल या प्रति माह लगभग 880 ईमेल का जवाब देता है। यहां तक कि पांच सेंट प्रति ईमेल पर भी, जो केवल ईमेल उत्तरों को संभालने के लिए प्रति उपयोगकर्ता औसतन $44 प्रति माह होगा।


इससे भी बदतर यह है कि यह उम्मीद करना उचित है कि ऐसी सेवा के साथ, एक कार्यालय कर्मचारी औसतन अधिक ईमेल का उत्तर देने में सक्षम होगा। अकेले शुद्ध एआई लागत में औसत के लिए दो हजार ईमेल, या एक सौ डॉलर प्रति माह के लिए औसत के लिए अनुचित नहीं होगा।


इस मामले में, अगर सास स्टार्टअप को एक साधारण काम करना है, मान लें कि दस-डॉलर-प्रति-माह मूल्य निर्धारण, वे समय के साथ भारी संभावित नुकसान में पड़ सकते हैं।


यह मूल्य निर्धारण लागत और व्यवसाय मॉडल विशिष्ट, प्रति-उपयोगकर्ता मूल्य निर्धारण मॉडल के विपरीत चलता है जो सास में आम है। यही कारण है कि इस तरह के एकीकरण के लिए इस तरह के एआई के उपयोग को सीमित करने के साधन और बिलिंग के साधन के रूप में "क्रेडिट" प्रणाली होना आम बात है।

यह उम्मीद की जाती है कि समय के साथ, बेहतर फाइन-ट्यूनिंग, प्रतिस्पर्धा और लागत अनुकूलन के साथ, प्रति संकेत मूल्य नीचे जा सकता है। एक और उल्लेखनीय तरीका है कि अधिक डेटा एकत्र करते समय पहले मूल अधिक महंगे AI का उपयोग किया जाए, जिसका उपयोग तब अधिक विशिष्ट और सस्ते मॉडल को प्रशिक्षित करने के लिए किया जाता है। हालाँकि, ये सभी विधियाँ गहरे तकनीकी विवरणों में जाती हैं, जो प्रत्येक उपयोग के मामले के लिए अद्वितीय हो सकती हैं, और आमतौर पर महत्वपूर्ण समय और प्रयास की आवश्यकता होती है।


और फिर भी, जबकि यह बचत में दस गुना कठोर हो सकता है, यह पारंपरिक सास एपीआई सेवाओं की तुलना में मौलिक रूप से अधिक महंगा है।

OpenAI का प्रभावी एकाधिकार है (अभी के लिए)

प्रतिस्पर्धा आने तक कीमतें अटकी रह सकती हैं

जबकि मौजूदा ओपन-सोर्स लार्ज लैंग्वेज मॉडल हैं, बहुत स्पष्ट शब्दों में, वे या तो GPT2 या कहीं और GPT3.5 के बीच तुलनीय हैं।


कुछ साधारण मामलों के लिए, एक बार जब वे एक उचित डेटासेट बनाना शुरू कर देते हैं, तो ये छोटे (और सस्ते) मॉडल लागत-कटौती के साधन के रूप में माइग्रेट करने के लिए उपयोगी हो सकते हैं।


हालांकि, अन्य जटिल मामलों के लिए, उनके एआई की जटिलता के कारण ऐसा कदम संभव नहीं हो सकता है, ओपनएआई को कम कीमत के लिए कोई प्रोत्साहन के बिना एक प्रभावी एकाधिकार प्रदान करता है।


हालांकि, यह माना जाता है कि अगले एक या दो वर्षों के दौरान, ओपन-सोर्स समुदाय पकड़ लेगा और ऐसा करने में, शायद बेहतर वैकल्पिक बुनियादी ढाँचे प्रदाताओं के कारण कीमतों में सुधार होगा।


हालांकि, क्योंकि यह एक अनिश्चित भविष्य है, यह हाइलाइट करने लायक है।


OpenAI कुछ मॉडलों के लिए एक संभावित अनिच्छुक प्रतियोगी है

जबकि जानबूझकर नहीं, यह महत्वपूर्ण है कि इस स्पेस बिल्ड फीचर सेट के भीतर स्टार्टअप्स जो उनके प्रॉम्प्ट-टू-टेक्स्ट बॉट्स से परे हैं।


उदाहरण के लिए, ऐसे कई छोटे स्टार्टअप थे जिन्होंने GPT3-आधारित बॉट्स या SaaS को विशिष्ट प्रॉम्प्ट-टू-टेक्स्ट उपयोग मामलों के आसपास बनाया, जैसे नाम जनरेटर या सरल इंटरफ़ेस वाले विचार जनरेटर।


सचमुच रातोंरात, चैटजीपीटी के लॉन्च के साथ, इन छोटे एकल-उपयोग-केस टेक्स्ट-टू-टेक्स्ट सास को बेमानी बना दिया गया था, क्योंकि रोज़मर्रा के लोग अब चैटजीपीटी के माध्यम से समान कार्यक्षमता मुफ्त में प्राप्त कर सकते हैं।


हालांकि हो सकता है कि OpenAI का इरादा उन भागीदारों के साथ प्रतिस्पर्धा करने का नहीं रहा हो, जो उन पर बने हैं, ऐसा करना उनकी अपरिहार्य प्रकृति हो सकती है, क्योंकि वे अपने मॉडल और चैटGPT में सुधार करते रहते हैं।


इस तरह, यह सुनिश्चित करने के लिए कि यह खुद को दोहराता नहीं है, इस तकनीक के आसपास के किसी भी व्यवसाय मॉडल के लिए यह पता लगाना महत्वपूर्ण है कि वे केवल शीघ्र-टू-टेक्स्ट से परे क्या अतिरिक्त मूल्य प्रदान करते हैं, शायद बेहतर उपयोगकर्ता अनुभव या मौजूदा टूलिंग के साथ एकीकरण, आदि।

अन्त में: यह बिल्कुल सही नहीं है

इंटर्न मॉडल की याद दिलाते हुए, कल कैंसर के इलाज के लिए इसका उपयोग करने की अपेक्षा न करें। तो कृपया एआई को पृथ्वी पर हर उत्पाद और स्टार्टअप में न डालें, जब ऐसा करने से अंतिम उपयोगकर्ता को कोई लाभ नहीं होता है।


~ अगली बार तक 🖖 जियो और खूब तरक्की करो
यूजीन चीह: uilicious.com का सीटीओ


यह लेख मूल रूप से लेखक के सबस्टैक पर पोस्ट किया गया था



अतिरिक्त नोट्स जो फिट नहीं हुए

Swyx इस तेजी से अस्त-व्यस्त और बढ़ते हुए स्थान में, विभिन्न सूचनाओं को समेकित करने के प्रयास में भी एक उत्कृष्ट कार्य करता है, जो पढ़ने योग्य है (अनुशंसित!!!)



वर्तमान में, BLOOM GPT3 (3.5 नहीं) के लिए मुख्य ओपनसोर्स दावेदार है: https://towardsdatascience.com/run-bloom-the-largest-open-access-ai-model-on-your-desktop-computer-f48e1e2a9a32


एआई/एमएल उद्योग में, एलएलएम की नई अवधारणाओं को जल्दी से सीखने और उन्हें लागू करने की क्षमता को "जीरो-शॉट", "वन-शॉट" और "फ्यू-शॉट" लर्निंग नामक परीक्षणों द्वारा मापा और मापा जाता है।


आम तौर पर एआई इन परीक्षणों में जितना बेहतर करता है, उतना ही कम डेटा आपको इसे अपने उपयोग के मामले में प्रशिक्षित करने की आवश्यकता होती है।


मेरी राय में: यह समझ में आता है - किसने सोचा होगा कि मनुष्यों के बाद बनाया गया एक तंत्रिका नेटवर्क मनुष्यों की तरह काम करेगा? और टी-शेप एजुकेशन मॉडल से लाभ उठाएं। जहां सामान्यीकृत ज्ञान का एक बड़ा दायरा विशेषज्ञता के क्षेत्र में विशेष ज्ञान सीखने की क्षमता में सुधार करने में मदद करता है। (यह कथन किसी भी डेटा द्वारा समर्थित नहीं है)

अन्य स्रोत और उद्धरण