How Much Does It Cost to Use GPT? GPT-3 Pricing Explained
चैटजीपीटी की रिलीज ने इसके पीछे की तकनीक के बारे में एक बड़ा प्रचार किया है: जनरेटिव प्रीट्रेन ट्रांसफॉर्मर -3 (आमतौर पर जीपीटी-3 के रूप में जाना जाता है)। कोई आश्चर्य नहीं! उच्च सटीकता के साथ एनएलपी कार्यों को करने में सक्षम होने के कारण, यह कई भाषा संबंधी कार्यों को स्वचालित कर सकता है, जैसे पाठ वर्गीकरण, प्रश्न उत्तर, मशीन अनुवाद और पाठ सारांश; इसका उपयोग सामग्री उत्पन्न करने, ग्राहक डेटा का विश्लेषण करने, या उन्नत संवादी AI सिस्टम विकसित करने के लिए किया जा सकता है।
यदि आप इस लेख को पढ़ रहे हैं, तो संभवत: आपको पहले से ही चैटजीपीटी के साथ खेलने का मौका मिल गया होगा या इसे यूट्यूब, ब्लॉग्स और सोशल मीडिया पोस्ट पर दिखाए गए कार्यों में देखा होगा, और अब आप चीजों को अगले स्तर पर ले जाने के बारे में सोच रहे हैं। और अपनी परियोजनाओं के लिए GPT-3 की शक्ति का उपयोग करना।
इससे पहले कि आप सभी रोमांचक संभावनाओं में गोता लगाएँ और अपने उत्पाद के रोडमैप की योजना बनाएं, आइए एक महत्वपूर्ण प्रश्न का समाधान करें:
OpenAI सरल और लचीले मूल्य निर्धारण का वादा करता है।
हम चार भाषा मॉडल में से चुन सकते हैं: एडा, बैबेज, क्यूरी और डेविंसी। डेविंसी सबसे शक्तिशाली है (चैटजीपीटी में उपयोग किया जाता है), लेकिन अन्य तीन अभी भी आसान कार्यों के लिए सफलतापूर्वक उपयोग किए जा सकते हैं, जैसे सारांश लिखना या भावना विश्लेषण करना।
मूल्य की गणना प्रत्येक 1K टोकन के अनुसार की जाती है। डेविंसी मॉडल का उपयोग करते हुए, आप उपयोग किए गए प्रत्येक 50K टोकन के लिए $1 का भुगतान करेंगे। क्या यह बहुत है? जैसा कि OpenAI मूल्य निर्धारण पृष्ठ पर बताया गया है :
आप टोकन को प्राकृतिक भाषा प्रसंस्करण के लिए उपयोग किए जाने वाले शब्दों के टुकड़ों के रूप में सोच सकते हैं। अंग्रेजी पाठ के लिए, 1 टोकन लगभग 4 वर्ण या 0.75 शब्द है। यह लगभग ¾ शब्द का अनुवाद करता है (इसलिए 100 टोकन ~ = 75 शब्द)। एक संदर्भ बिंदु के रूप में, शेक्सपियर के एकत्रित कार्य लगभग 900,000 शब्द या 1.2M टोकन हैं।
तो केवल $100 के लिए, आप ~3,750,000 अंग्रेजी शब्दों पर संचालन करने में सक्षम हैं, जो टेक्स्ट के ~7500 सिंगल-स्पेस पेज हैं। हालाँकि, जैसा कि हम आगे पढ़ सकते हैं,
उत्तर अनुरोधों को आपके द्वारा प्रदान किए गए इनपुट में टोकन की संख्या और मॉडल द्वारा उत्पन्न उत्तर के आधार पर बिल किया जाता है। आंतरिक रूप से, यह एंडपॉइंट खोज और पूर्णता एपीआई को कॉल करता है, इसलिए इसकी लागत उन एंडपॉइंट्स की लागतों का एक कार्य है।
तो हमारे पाठ के 7500 पृष्ठों में इनपुट, आउटपुट और मॉडल के लिए "निर्देश" के साथ संकेत शामिल हैं। यह पूरी अनुमान प्रक्रिया को थोड़ा पेचीदा बना देता है क्योंकि हम नहीं जानते कि आउटपुट क्या हो सकता है।
इसका पता लगाने के लिए, हमने एक प्रयोग चलाने का निर्णय लिया।
लक्ष्य तीन नमूना संकेतों के साथ वास्तविक टोकन उपयोग की जांच करना था, समझें कि किन कारकों का आउटपुट पर प्रभाव पड़ता है, और GPT-3 परियोजनाओं की लागत का बेहतर अनुमान लगाना सीखें।
प्रयोग में टेक्स्ट कॉर्पोरा के साथ संकेतों को जोड़ना, उन्हें एपीआई में भेजना और फिर लौटाए गए टोकन की संख्या की गणना करना शामिल है।
एपीआई अनुरोध की लागत को तब उपयोग दृश्य में मॉनिटर किया गया था और - चूंकि एक बिलिंग विंडो सीमा के लिए एक अनुरोध है - कम से कम 5 मिनट का प्रतीक्षा समय लागू किया गया था। तब लागत की गणना हाथ से की गई थी और यह देखने के लिए कि क्या कोई विसंगतियां थीं, उपयोग दृश्य में दर्ज लागत के साथ तुलना की गई थी।
योजना सरल थी। वास्तविक परिणाम देखने के लिए हमें कई कॉर्पोरा (~10) एकत्र करने, संकेत तैयार करने, टोकन उपयोग का अनुमान लगाने और एपीआई को कुछ बार कॉल करने की आवश्यकता थी।
परिणामों के आधार पर, हम इनपुट (कॉरपोरा + प्रॉम्प्ट) और आउटपुट के बीच सहसंबंध खोजने की योजना बना रहे थे। हम यह जानना चाहते थे कि कौन से कारक आउटपुट की लंबाई को प्रभावित करते हैं और देखें कि क्या हम केवल इनपुट और प्रॉम्प्ट के आधार पर टोकन उपयोग की भविष्यवाणी करने में सक्षम हैं।
सबसे पहले, हम यह जांचना चाहते थे कि OpenAI मूल्य निर्धारण पृष्ठ पर दी गई जानकारी कितनी सही है। ऐसा करने के लिए, हमने टोकनेज़र से परिणाम लिए - OpenAI द्वारा प्रदान किया गया एक आधिकारिक उपकरण जो यह गणना करता है कि एपीआई द्वारा पाठ का एक टुकड़ा कैसे टोकनित किया जाएगा और पाठ के उस टुकड़े में टोकन की कुल संख्या - ताकि हम बाद में उनकी तुलना डेटा से कर सकें उपयोग दृश्य और वास्तविक बिलिंग से।
हमारे कॉर्पोरा के रूप में, हमने सबसे अधिक डाउनलोड किए जाने वाले दस ऐप्स का विवरण लिया: टिकटॉक, इंस्टाग्राम, फेसबुक, व्हाट्सएप, टेलीग्राम, स्नैपचैट, जूम, मैसेंजर, कैपकट और स्पॉटिफाई।
ये हमें टेक्स्ट पर कई ऑपरेशन चलाने और विभिन्न उपयोग के मामलों के लिए कॉर्पोरा का परीक्षण करने की अनुमति देंगे, जैसे कीवर्ड खोज, टेक्स्ट के लंबे टुकड़ों को सारांशित करना और टेक्स्ट को प्रोजेक्ट आवश्यकताओं में बदलना। विवरण की लंबाई 376 से 2060 शब्दों में भिन्न है।
आइए देखें कि यह कैसा दिखता था। यहाँ एक टिकटॉक विवरण का अंश है:
पाठ के नमूने में 1609 शब्द और 2182 टोकन शामिल थे, जो - चुने गए GPT-3 मॉडल के आधार पर - खर्च होने चाहिए:
हमने अपने कॉर्पोरा में दस ऐप विवरणों में से प्रत्येक के साथ ऐसा ही किया।
यह GPT-3 API के साथ वास्तविक परीक्षणों के लिए हमारा संदर्भ था।
अगले चरण के रूप में, हमने संकेत तैयार किए। इस प्रयोग के प्रयोजनों के लिए, हम तीन अलग-अलग उपयोग मामलों के लिए तीन संकेतों का उपयोग करना चाहते थे।
पहला संकेत दिए गए ऐप के विवरण के आधार पर परियोजना की आवश्यकताओं को इकट्ठा करने के बारे में था।
Describe in detail, using points and bullet points, requirements strictly related to the project of an application similar to the below description:
हमारा संकेत 22 शब्द (148 अक्षर) लंबा था, जो 26 टोकन के बराबर था। हमने इन मूल्यों को कॉर्पोरा में जोड़ा और प्रत्येक मॉडल के लिए अनुमानित टोकन उपयोग की फिर से गणना की।
दूसरा संकेत पाठ के लंबे अंशों का सारांश लिखने के बारे में था। मॉडल का "काम" पाठ के सबसे महत्वपूर्ण भागों की पहचान करना और संक्षिप्त पुनर्कथन लिखना होगा।
Create a short summary consisting of one paragraph containing the main takeaways of the below text:
हमारा संकेत 16 शब्द (99 अक्षर) लंबा था, जो 18 टोकन के बराबर था। दोबारा, हमने इन मूल्यों को कॉर्पोरा में जोड़ा।
अंतिम संकेत को पाठ से खोजशब्दों को खोजना और वर्गीकृत करना था और फिर उन्हें एक निश्चित रूप में प्रस्तुत करना था।
Parse the below content in search of keywords. Keywords should be short and concise. Assign each keyword a generic category, like a date, person, place, number, value, country, city, day, year, etc. Present it as a list of categories: keyword pairs.
यह 41 शब्द (250 वर्ण) लंबा था, जो 61 टोकन के बराबर था। कॉर्पोरा पाठ के साथ, इसने हमें दिया:
अगला कदम आखिरकार हमें कुछ जवाब देने वाला था। हम कॉर्पोरा पाठ के साथ अपने संकेतों को एपीआई में भेजने जा रहे थे, आउटपुट में लौटाए गए टोकन की संख्या की गणना करें, और उपयोग दृश्य में हमारे एपीआई अनुरोधों की निगरानी करें।
इस स्तर पर, हमने केवल सबसे उन्नत GPT मॉडल पर ध्यान केंद्रित करने का निर्णय लिया: Davinci - वह जो ChatGPT का मूल है।
चूंकि OpenAI प्लेटफॉर्म पर टोकन के उपयोग को 5 मिनट की समय सीमा में मापा जाता है, इसलिए हमारी स्क्रिप्ट हर 5 मिनट में केवल एक एपीआई अनुरोध भेज रही थी। प्रत्येक अनुरोध पाठ के एक टुकड़े (कॉर्पोरा) और एक संकेत का संयोजन था। इस तरह, हम हर संयोजन के लिए टोकन के उपयोग के बारे में सटीक जानकारी प्राप्त कर सकते हैं और अनुमानों के साथ परिणामों की तुलना कर सकते हैं।
कुल मिलाकर, हमारे पास परीक्षण के लिए 30 संयोजन थे: 3 संकेत x 10 ऐप विवरण। इस प्रयोग के लिए, हमने मॉडल सेटिंग्स में कोई अतिरिक्त चर नहीं जोड़ा, जैसे कि मॉडल का तापमान, क्योंकि इससे संयोजनों की संख्या और प्रयोग की लागत में काफी वृद्धि होगी।
इन 30 अनुरोधों को भेजने के बाद, हमने उपयोग दृश्य में दिखाए गए परिणामों की तुलना सीधे हमारे एपीआई कॉल के मेटाडेटा से लिए गए परिणामों से की।
परिणाम एक दूसरे के अनुरूप थे। इसके अलावा, प्रांप्ट का टोकन उपयोग - जिसमें प्रांप्ट और कॉरपोरा दोनों शामिल हैं - भी टोकननाइज़र के साथ पहले अनुमानित उपयोग के साथ सुसंगत था।
इस बिंदु पर, हम जानते थे कि हम उच्च सटीकता के साथ इनपुट के टोकन उपयोग का अनुमान लगाने में सक्षम थे। अगला कदम यह जांचना था कि क्या इनपुट की लंबाई और आउटपुट की लंबाई के बीच कोई संबंध था और पता करें कि क्या हम आउटपुट के टोकन उपयोग का अनुमान लगाने में सक्षम हैं।
इनपुट टोकन की संख्या और आउटपुट टोकन की संख्या के बीच का संबंध बहुत कमजोर था*। एक अनुरोध में उपयोग किए गए टोकन की कुल संख्या का अनुमान लगाने के लिए इनपुट टोकन की संख्या को मापना पर्याप्त नहीं था।
* टीएल; डीआर सारांश में 0,0029 और परियोजना आवश्यकताओं के अनुरोध में 0,0246 के बीच ढलान भिन्न है।
जबकि इनपुट टोकन की संख्या (प्रॉम्प्ट + कॉर्पोरा) और आउटपुट टोकन (प्रतिक्रिया) की संख्या के बीच कोई स्पष्ट संबंध नहीं था, हम स्पष्ट रूप से देख सकते थे कि वास्तव में आउटपुट टोकन की संख्या को प्रभावित करने वाला कारक ही संकेत था - निर्देश जो एक मॉडल को दिया गया।
विश्लेषण किए गए सभी मामलों में, खोजशब्दों को निकालने और समूह बनाने की तुलना में परियोजना आवश्यकताओं को उत्पन्न करने में अधिक टोकन लगे। हालांकि, इन मामलों में अंतर बहुत कम थे और वास्तव में एक अनुरोध की लागत को प्रभावित नहीं करते थे, जो कि ~$0.04 थी। यह संभवत: बदल जाएगा यदि संक्षिप्त के आधार पर पाठ का एक लंबा टुकड़ा (उदाहरण के लिए एक ब्लॉग लेख) बनाने के लिए संकेत को GPT-3 मॉडल की आवश्यकता होती है।
विशिष्ट उपयोग मामले (जिसके लिए हम मॉडल का उपयोग करते हैं) के अलावा, ऐसे अन्य कारक भी हैं जो आपकी परियोजना में GPT-3 के उपयोग की लागत को प्रभावित कर सकते हैं। दूसरों के बीच, ये होंगे:
तापमान पैरामीटर मॉडल के आउटपुट की यादृच्छिकता को नियंत्रित करता है, और इसे उच्च मान पर सेट करने से अधिक विविध और अप्रत्याशित आउटपुट हो सकते हैं। यह मॉडल को चलाने के लिए आवश्यक कम्प्यूटेशनल संसाधनों को बढ़ा सकता है और इसलिए लागत को प्रभावित करता है।
एक अच्छा संकेत गलत प्रतिक्रिया प्राप्त करने के जोखिम को कम करेगा।
मॉडल की उपलब्धता से GPT-3 का उपयोग करने की लागत भी प्रभावित हो सकती है। यदि मॉडल की मांग अधिक है तो सीमित उपलब्धता के कारण लागत बढ़ सकती है।
GPT-3 का उपयोग करने की लागत आवश्यक अनुकूलन के स्तर से भी प्रभावित हो सकती है। यदि आपको विशिष्ट कार्यक्षमता की आवश्यकता है, तो अतिरिक्त विकास कार्य की आवश्यकता हो सकती है, जिससे लागत बढ़ सकती है।
एक उपयोगकर्ता के रूप में, आप सॉफ्ट और हार्ड लिमिट सेट करके बजट को नियंत्रित कर सकते हैं। सॉफ्ट लिमिट के साथ, एक निश्चित उपयोग सीमा पार करने के बाद आपको एक ईमेल अलर्ट प्राप्त होगा, और एक हार्ड लिमिट पहुंचने के बाद किसी भी बाद के एपीआई अनुरोधों को अस्वीकार कर दिया जाएगा। अनुरोध में max_tokens
पैरामीटर सेट करना भी संभव है।
हालाँकि, आपको यह ध्यान रखने की आवश्यकता है कि आपके द्वारा निर्धारित सीमा का मॉडल की दक्षता पर प्रभाव पड़ेगा। यदि सीमाएँ बहुत कम हैं, तो एपीआई अनुरोध बस नहीं भेजे जाएँगे, इसलिए आपको - और आपके उपयोगकर्ताओं को - कोई प्रतिक्रिया नहीं मिलेगी।
प्रयोग से पता चला है कि केवल कॉरपोरा और संकेतों के आधार पर टोकन उपयोग का सटीक अनुमान प्रदान करना बहुत मुश्किल है।
GPT-3 का उपयोग करने की लागत कारकों की एक विस्तृत श्रृंखला से प्रभावित हो सकती है, जिसमें विशिष्ट उपयोग का मामला, संकेत की गुणवत्ता, अनुकूलन का स्तर, API कॉल की मात्रा और मॉडल को चलाने के लिए आवश्यक कम्प्यूटेशनल संसाधन शामिल हैं।
किए गए प्रयोग के आधार पर, हम मोटे तौर पर केवल कुछ उपयोग मामलों के लिए GPT-3 का उपयोग करने की लागत का अनुमान लगा सकते हैं, जैसे कि कीवर्ड निष्कर्षण, परियोजना आवश्यकताओं को इकट्ठा करना, या सारांश लिखना।
आइए पहले मामले पर एक नज़र डालें और मान लें कि आपकी वेबसाइट पर एक ग्राहक सेवा चैटबॉट है, और आप जानना चाहेंगे कि उपयोगकर्ता आमतौर पर क्या पूछते हैं। ऐसी अंतर्दृष्टि प्राप्त करने के लिए, आपको चाहिए:
आपके पास प्रति माह ~15.000 आगंतुक हैं, और प्रत्येक आगंतुक सप्ताह में दो बार 3 अनुरोध भेजता है। इस परिदृश्य में, हमारे पास प्रति माह 360K अनुरोध होते हैं। यदि हम प्रयोग से इनपुट और आउटपुट की औसत लंबाई (~1800 और 80 टोकन) को प्रतिनिधि मान के रूप में लेते हैं, तो हम आसानी से एक अनुरोध की कीमत की गणना कर सकते हैं।
विश्लेषित मामले में GPT-3 (डेविंसी मॉडल) का उपयोग करने की लागत ~$14,4K प्रति माह होगी।
हालांकि, यह नोट करना महत्वपूर्ण है कि यह केवल एक सरलीकृत सिमुलेशन है, और इसके परिणाम पूरी तरह से प्रतिनिधि नहीं हैं।
चूंकि किसी भी GPT-3-संचालित उत्पाद के निर्माण की वास्तविक लागत कई कारकों (परियोजना की जटिलता, डेटा की मात्रा और गुणवत्ता, संकेत, मॉडल सेटिंग्स, उपयोगकर्ताओं की संख्या) पर निर्भर करती है, ऐसे अनुमान की त्रुटि का सुरक्षित मार्जिन 50-100% भी होगा।
अधिक विश्वसनीय अनुमान प्राप्त करने के लिए, अवधारणा परियोजना का प्रमाण चलाना और डेटा के विशिष्ट सेट पर विभिन्न परिदृश्यों का परीक्षण करना उपयोगी होगा - आपके अपने कॉर्पोरा नमूने।
GPT-3 एक अपेक्षाकृत नई तकनीक है, और इसके व्यावसायिक उपयोग से संबंधित अभी भी कई अज्ञात हैं। इसका उपयोग करने की लागत उनमें से एक है।
हालांकि टोकन उपयोग और इनपुट पक्ष पर इसकी कीमत को मापना संभव है (सबसे उन्नत डेविंसी मॉडल में $0.04 प्रति 1000 टोकन), आउटपुट में इन मूल्यों की भविष्यवाणी करना कठिन है। कई चर हैं जो उन्हें प्रभावित करते हैं, और इनपुट और आउटपुट के बीच का संबंध अपेक्षाकृत कम है।
इस वजह से, कोई भी "कच्चा" अनुमान शुद्ध अनुमान है। एक अनुमान की सटीकता बढ़ाने के लिए (लेकिन एक निश्चित उपयोग मामले में GPT-3 का उपयोग करने की व्यवहार्यता को मान्य करने के लिए भी), अवधारणा का प्रमाण चलाना आवश्यक है। ऐसे पीओसी में, हम कॉर्पोरा का नमूना लेते हैं और सर्वोत्तम संयोजन खोजने के लिए विभिन्न संकेतों और विभिन्न मॉडल सेटिंग्स के साथ मॉडल का परीक्षण करते हैं।
21 फरवरी को, फाउंड्री नामक नई ओपनएआई पेशकश के बारे में जानकारी वायरल हो गई, जिसने ट्विटर से टेकक्रंच औरसीएमएस वायर जैसे सबसे मान्यता प्राप्त टेक मीडिया तक अपना रास्ता बना लिया।
उत्पाद विवरण के अनुसार, GPT-3.5 के हल्के संस्करण को चलाने के लिए तीन महीने की प्रतिबद्धता के लिए $78,000 या एक साल की प्रतिबद्धता के लिए $264,000 खर्च होंगे। डेविंसी मॉडल के सबसे उन्नत संस्करण को चलाने (जीपीटी-3 में हमारे पास 8 गुना टोकन सीमा से अधिक के साथ!) तीन महीने की प्रतिबद्धता के लिए $ 468,000 या एक साल की प्रतिबद्धता पर $ 1,584,000 खर्च होंगे।
लेकिन यह सब क्या है? जैसा कि हम टेकक्रंच पर पढ़ सकते हैं:
यदि स्क्रीनशॉट्स पर विश्वास किया जाए, फाउंड्री - जब भी यह लॉन्च होता है - एक ग्राहक को समर्पित गणना क्षमता (...) का "स्थैतिक आवंटन" प्रदान करेगा। (...)
फाउंड्री उदाहरण के लिए अपटाइम और ऑन-कैलेंडर इंजीनियरिंग समर्थन के लिए सेवा-स्तर की प्रतिबद्धताओं की भी पेशकश करेगी। किराया तीन महीने या एक साल की प्रतिबद्धताओं के साथ समर्पित कंप्यूट इकाइयों पर आधारित होगा; एक व्यक्तिगत मॉडल उदाहरण चलाने के लिए विशिष्ट संख्या में कंप्यूट इकाइयों की आवश्यकता होगी।
हालांकि, ऐसा लगता है कि सेवा स्तर की प्रतिबद्धता को निश्चित मूल्य अनुबंध के रूप में नहीं माना जाना चाहिए।
अभी के लिए, यह मान लेना सुरक्षित होगा कि मूल्य केवल समर्पित क्षमता पर "मॉडल कॉन्फ़िगरेशन और प्रदर्शन प्रोफ़ाइल पर पूर्ण नियंत्रण के साथ" एक निश्चित मॉडल तक पहुंच को कवर करता है, जैसा कि हम उत्पाद संक्षिप्त स्क्रीनशॉट पर पढ़ सकते हैं।
नए मॉडलों में टोकन की कीमतें - जिनकी व्यापक रूप से प्रतीक्षित GPT-4 होने की उम्मीद है - अभी तक घोषित नहीं की गई थीं। हाल ही के OpenAI प्रलेखन अद्यतन में, हालांकि, हम पढ़ सकते हैं कि GPT-3.5 टर्बो GPT-3 डेविंसी मॉडल की लागत के 1/10वें हिस्से पर आता है - जो हमें GPT-3.5 टर्बो में $0,002 प्रति 1k टोकन देता है।