जनरेटिव एआई और बड़े भाषा मॉडल (एलएलएम) बहुत उत्साह पैदा कर रहे हैं। पाठ लिखने में मदद के लिए कहे जाने पर वे कितने उपयोगी हो सकते हैं, इसके कारण उन्होंने आम जनता की कल्पना को जगाया है। लेकिन डेवलपर्स के लिए, वे और भी अधिक क्रांतिकारी हैं, क्योंकि एआई अनुप्रयोगों को बनाने के तरीके को उन्होंने नाटकीय रूप से सरल बनाया है। आइए नजर डालते हैं क्यों।
परंपरागत रूप से, जिस तरह से आप एआई एप्लिकेशन बनाते हैं, वह चार चरणों वाली प्रक्रिया रही है:
चरण 3 आम तौर पर सीधा होता है (हालाँकि
आश्चर्य की बात नहीं है, जब एक समस्या डोमेन को इसे सफलतापूर्वक संबोधित करने के लिए पीएचडी की एक टीम की आवश्यकता होती है, तो यह कुछ कंपनियों को छोड़कर सभी के लिए लागत और कौशल-निषेधात्मक होगा।
एलएलएम के साथ जेनेरेटिव एआई के बारे में हर कोई इतना उत्साहित होने का एक कारण यह है कि आप अक्सर ऊपर दिए गए किसी भी चरण के बिना "अच्छी तरह से" एक समस्या को हल कर सकते हैं। जनरेटिव एआई के साथ आपका काम है:
वास्तव में बस इतना ही। बाकी सब कुछ विवरण है।
सबसे महत्वपूर्ण विवरण: चरण 1 में आप GPT को कौन सा डेटा देते हैं? आप उस पर सब कुछ नहीं फेंक सकते; यह GPT-3.5 में केवल 4k टोकन, या GPT-4 में 32k तक संभाल सकता है, जो बहुत धीमा और अधिक महंगा है।
वेक्टर खोज आपको सटीक क्वेरी लेने में सक्षम बनाती है जिसे आपने पहले ही जीपीटी को भेजने के लिए बनाया था और इसे अपने डेटाबेस में फेंक दिया था, जहां आप ग्राहक के बारे में सब कुछ जानते हैं। वेक्टर खोज शाब्दिक रूप से "इस क्वेरी के लिए सबसे अधिक प्रासंगिक डेटा क्या है" का जवाब देती है, जिसमें आपकी ओर से कोई और प्रयास नहीं किया गया है - यह लगभग जादुई है।
(मेरा दृढ़ विश्वास है कि वेक्टर खोज आपके मुख्य एप्लिकेशन डेटाबेस की एक विशेषता होनी चाहिए न कि एक अलग प्रणाली, यही कारण है
एक बार आपके पास अपना सबसे प्रासंगिक डेटा और आपकी क्वेरी हो जाने के बाद, आप उन्हें एक साथ बंडल करते हैं और OpenAI को कॉल करते हैं, आपको अपना उत्तर वापस मिल जाता है, और आपका काम हो गया। (मैं कुछ चुनौतियों को अनदेखा कर रहा हूं, जैसे "
तो एक स्ट्रीमिंग सामग्री प्रदाता डेटा का उपयोग करेगा जैसे: प्रत्येक सत्र जोनाथन ने कभी भी शीर्षक, अभिनेताओं और श्रेणी के साथ बिताया; उसने इसे कितनी देर तक देखा; साथ ही सभी मेटाडेटा के साथ हम आ सकते हैं, और उसके बाद इसे एक ही टेक्स्ट ब्लॉब में सामान्य करें और इसे वेक्टर प्राप्त करने के लिए एन्कोडर के माध्यम से चलाएं।
और अगर यह नेटफ्लिक्स होता, तो यह बहुत आसान होता, क्योंकि
एक बार ऐसा हो जाने के बाद, आप कैसेंड्रा से प्रासंगिक पंक्तियों को इस तरह की क्वेरी के साथ ला सकते हैं, कहा पे ? आपके क्वेरी वेक्टर के लिए एक बाइंड वेरिएबल है जो आपको उसी एम्बेडिंग API से मिलता है:
SELECT original_data_text FROM user_recommendation_data WHERE user_id = 'jonathan' ORDER BY embedding ANN OF ? LIMIT 20
फिर आप उन परिणामों को अपने एलएलएम प्रांप्ट में जोड़ते हैं, और ... बस इतना ही। अब आपके पास एक अनुशंसा प्रणाली है जिसे आपने बिना पीएचडी के एक सप्ताह में बनाया है, बस
लेकिन भले ही आपको एक कस्टम मॉडल बनाने की आवश्यकता हो, एलएलएम ऐसा करने के लिए डेटा, लेबल और सुविधाओं को बनाने में मदद कर सकता है। हालाँकि, यह एक अन्य लेख का विषय है!
मैं पढ़ने की सलाह देता हूं
जोनाथन एलिस द्वारा, डेटास्टैक्स