paint-brush
एलएलएम के लिए वाक्यविन्यास त्रुटि-मुक्त और सामान्यीकरण योग्य उपकरण का उपयोग: निष्कर्ष और संदर्भद्वारा@textmodels

एलएलएम के लिए वाक्यविन्यास त्रुटि-मुक्त और सामान्यीकरण योग्य उपकरण का उपयोग: निष्कर्ष और संदर्भ

द्वारा Writings, Papers and Blogs on Text Models
Writings, Papers and Blogs on Text Models HackerNoon profile picture

Writings, Papers and Blogs on Text Models

@textmodels

We publish the best academic papers on rule-based techniques, LLMs,...

5 मिनट read2024/06/02
Read on Terminal Reader
Read this story in a terminal
Print this story

बहुत लंबा; पढ़ने के लिए

शोधकर्ताओं ने एलएलएम के लिए एक परिमित-अवस्था मशीन-निर्देशित डिकोडिंग टूलडेक का प्रस्ताव रखा है, जो त्रुटियों को कम करेगा और उपकरण के उपयोग में सुधार करेगा।
featured image - एलएलएम के लिए वाक्यविन्यास त्रुटि-मुक्त और सामान्यीकरण योग्य उपकरण का उपयोग: निष्कर्ष और संदर्भ
Writings, Papers and Blogs on Text Models HackerNoon profile picture
Writings, Papers and Blogs on Text Models

Writings, Papers and Blogs on Text Models

@textmodels

We publish the best academic papers on rule-based techniques, LLMs, & the generation of text that resembles human text.

0-item

STORY’S CREDIBILITY

Academic Research Paper

Academic Research Paper

Part of HackerNoon's growing list of open-source research papers, promoting free access to academic material.

लेखक:

(1) केक्सुन झांग, यूसी सांता बारबरा और समान योगदान;

(2) हांगकियाओ चेन, नॉर्थवुड हाई स्कूल और समान योगदान;

(3) लेई ली, कार्नेगी मेलन विश्वविद्यालय;

(4) विलियम यांग वांग, यूसी सांता बारबरा।

लिंक की तालिका

6। निष्कर्ष

यह पेपर TOOLDEC प्रस्तुत करता है, जो एक नया डिकोडिंग एल्गोरिदम है जिसे बाहरी उपकरणों को एकीकृत करके और यह सुनिश्चित करके कि उनका आह्वान वाक्यविन्यास-त्रुटि-मुक्त है, बड़े भाषा मॉडल (LLM) को बढ़ाने के लिए डिज़ाइन किया गया है। TOOLDEC, टूल डॉक्यूमेंटेशन और API सिग्नेचर से निर्मित एक परिमित-स्थिति मशीन द्वारा निर्देशित, टूल कॉल के व्याकरण को सटीक रूप से प्रस्तुत करता है, जो मौजूदा मॉडल में गलत टूल कॉल और अनदेखे टूल के खराब सामान्यीकरण जैसे प्रचलित मुद्दों को संबोधित करता है।


प्रयोगों से पता चलता है कि TOOLDEC उपकरण से संबंधित वाक्यविन्यास त्रुटियों को समाप्त करता है, सटीकता में सुधार करता है, और विभिन्न बेंचमार्क में अनुमान लगाने में लगने वाले समय को बचाता है। यह अतिरिक्त फाइन-ट्यूनिंग डेटा के बिना कई डोमेन में अनदेखे उपकरणों को सामान्यीकृत करने की क्षमता भी प्रदर्शित करता है। TOOLDEC द्वारा की गई प्रगति अतिरिक्त प्रशिक्षण डेटा के बिना उपकरणों और अनुप्रयोगों की एक विस्तृत श्रृंखला के लिए अनुकूलनीय अधिक परिष्कृत मॉडल विकसित करने में अनुसंधान के लिए रास्ते खोलती है, जिससे जटिल समस्याओं के व्यापक स्पेक्ट्रम को हल करने में सक्षम अधिक बहुमुखी और मजबूत LLM बनते हैं।


वाक्यविन्यास त्रुटियों को दूर करने में TOOLDEC की सफलता अर्थपूर्ण सटीकता और टूल कॉल की प्रासंगिक प्रासंगिकता पर ध्यान केंद्रित करने वाले अनुसंधान को प्रेरित कर सकती है। इससे ऐसे मॉडल बन सकते हैं जो टूल को अधिक प्रभावी ढंग से लागू, समझ और लाभ उठा सकते हैं, जिससे LLM की समग्र समस्या-समाधान क्षमताओं में वृद्धि होगी।

प्रतिक्रिया दें संदर्भ

पीटर एंडरसन, बसुरा फर्नांडो, मार्क जॉनसन और स्टीफन गोल्ड। निर्देशित ओपन वोकैबुलरी इमेज कैप्शनिंग विथ कंस्ट्रेन्टेड बीम सर्च। 2017 कॉन्फ्रेंस ऑन एम्पिरिकल मेथड्स इन नेचुरल लैंग्वेज प्रोसेसिंग की कार्यवाही में, पृष्ठ 936-945, कोपेनहेगन, डेनमार्क, सितंबर 2017। कम्प्यूटेशनल भाषाविज्ञान के लिए एसोसिएशन। doi: 10.18653/v1/D17-1098। URL https://aclanthology.org/D17-1098।


सेबेस्टियन बोरग्यूड, आर्थर मेन्श, जॉर्डन हॉफमैन, ट्रेवर कै, एलिजा रदरफोर्ड, केटी मिलिकन, जॉर्ज बीएम वैन डेन ड्रिसचे, जीन-बैप्टिस्ट लेस्पियू, बोगदान डैमोक, ऐडन क्लार्क, आदि। खरबों टोकन से पुनर्प्राप्त करके भाषा मॉडल में सुधार करना। मशीन लर्निंग पर अंतर्राष्ट्रीय सम्मेलन में, पृष्ठ 2206-2240। पीएमएलआर, 2022।


टॉम ब्राउन, बेंजामिन मान, निक राइडर, मेलानी सुब्बियाह, जेरेड डी कपलान, प्रफुल्ल धारीवाल, अरविंद नीलकांतन, प्रणव श्याम, गिरीश शास्त्री, अमांडा एस्केल, आदि। भाषा मॉडल बहुत कम सीखने वाले होते हैं। तंत्रिका सूचना प्रसंस्करण प्रणालियों में प्रगति, 33:1877–1901, 2020।


वेन्हू चेन, ज़ुएगुआंग मा, झिन्यी वांग, और विलियम डब्ल्यू कोहेन। विचारों को प्रेरित करने का कार्यक्रम: संख्यात्मक तर्क कार्यों के लिए तर्क से गणना को अलग करना। arXiv ई-प्रिंट, पृष्ठ arXiv–2211, 2022।


जेसन आइज़नर। संभाव्य परिमित-अवस्था ट्रांसड्यूसर के लिए पैरामीटर अनुमान। कम्प्यूटेशनल भाषाविज्ञान संघ की 40वीं वार्षिक बैठक की कार्यवाही में, पृष्ठ 1-8, 2002।


एडवर्ड फ्रेडकिन। ट्राई मेमोरी। एसीएम के संचार, 3(9):490–499, 1960।


लुयु गाओ, अमन मदान, शुयान झोउ, उरी अलोन, पेंगफेई लियू, यिमिंग यांग, जेमी कैलन और ग्राहम न्यूबिग। पाल: प्रोग्राम-एडेड लैंग्वेज मॉडल। मशीन लर्निंग पर अंतर्राष्ट्रीय सम्मेलन में, पृष्ठ 10764-10799। पीएमएलआर, 2023।


तन्मय गुप्ता और अनिरुद्ध केम्भवी। विज़ुअल प्रोग्रामिंग: बिना प्रशिक्षण के कंपोज़िशनल विज़ुअल रीजनिंग। ArXiv, abs/2211.11559, 2022।


केल्विन गुऊ, केंटन ली, ज़ोरा तुंग, पनुपोंग पासुपत और मिंगवेई चांग। रिट्रीवल ऑगमेंटेड लैंग्वेज मॉडल प्री-ट्रेनिंग। मशीन लर्निंग पर अंतर्राष्ट्रीय सम्मेलन में, पृष्ठ 3929-3938। पीएमएलआर, 2020।


शिबो हाओ, तियानयांग लियू, जेन वांग, और झीटिंग हू। टूलकेंगप्ट: टूल एम्बेडिंग के माध्यम से बड़े पैमाने पर उपकरणों के साथ जमे हुए भाषा मॉडल को बढ़ाना। arXiv प्रीप्रिंट arXiv:2305.11554, 2023।


क्रिस होकैम्प और क्यून लियू। ग्रिड बीम सर्च का उपयोग करके अनुक्रम निर्माण के लिए लेक्सिकली कंस्ट्रेन्ट डिकोडिंग। एसोसिएशन फॉर कम्प्यूटेशनल लिंग्विस्टिक्स की 55वीं वार्षिक बैठक की कार्यवाही में (वॉल्यूम 1: लॉन्ग पेपर्स), पीपी. 1535-1546, वैंकूवर, कनाडा, जुलाई 2017। एसोसिएशन फॉर कम्प्यूटेशनल लिंग्विस्टिक्स। doi: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


जान-क्रिस्टोफ़ कालो और लिआंड्रा फ़िचटेल। कामेल: भाषा मॉडल में मल्टीटोकन इकाइयों के साथ ज्ञान विश्लेषण। स्वचालित ज्ञान आधार निर्माण, 2022।


ली ली, वू चौ, वेई झोउ और मिन लुओ। नेटवर्किंग अनुप्रयोगों के लिए रेस्ट एपीआई के डिज़ाइन पैटर्न और विस्तारशीलता। IEEE ट्रांजेक्शन ऑन नेटवर्क एंड सर्विस मैनेजमेंट, 13(1):154–167, 2016।


ज़िमिंग लू, पीटर वेस्ट, रोवन ज़ेलर्स, रोनन ले ब्रास, चंद्र भगवतुला और येजिन चोई। न्यूरोलॉजिक डिकोडिंग: प्रेडिकेट लॉजिक कंस्ट्रेंट के साथ (अन) सुपरवाइज्ड न्यूरल टेक्स्ट जेनरेशन। एसोसिएशन फॉर कम्प्यूटेशनल लिंग्विस्टिक्स के उत्तरी अमेरिकी अध्याय के 2021 सम्मेलन की कार्यवाही में: मानव भाषा प्रौद्योगिकी, पीपी. 4288–4299, 2021।


ज़िमिंग लू, सीन वेलेक, पीटर वेस्ट, लिवेई जियांग, जुंगो कसाई, डैनियल खशाबी, रोनन ले ब्रास, लियानहुई किन, यंगजे यू, रोवन ज़ेलर्स, एट अल. न्यूरोलॉजिक ए* एस्क्यू डिकोडिंग: लुकअहेड ह्यूरिस्टिक्स के साथ कंस्ट्रेन्ड टेक्स्ट जेनरेशन। एसोसिएशन फॉर कम्प्यूटेशनल लिंग्विस्टिक्स: ह्यूमन लैंग्वेज टेक्नोलॉजीज के उत्तरी अमेरिकी अध्याय के 2022 सम्मेलन की कार्यवाही में, पृष्ठ 780-799, 2022।


ग्रेगोइरे मियालोन, रॉबर्टो डेस ´ `ı, मारिया लोमेली, क्रिस्टोफ़ोरोस नालम्पेंटिस, राम पासुनुरु, रॉबर्टा रेलियानू, बैपटिस्ट रोज़ियर, टिमो शिक, जेन द्विवेदी-यू, असली सेलिकिल्माज़, आदि। संवर्धित `भाषा मॉडल: एक सर्वेक्षण। arXiv प्रीप्रिंट arXiv:2302.07842, 2023।


निंग मियाओ, हाओ झोउ, लिली मौ, रुई यान और लेई ली। सीजीएमएच: मेट्रोपोलिस-हेस्टिंग्स सैंपलिंग द्वारा बाध्य वाक्य निर्माण। आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही में, खंड 33, पृष्ठ 6834-6842, 2019।


रीइचिरो नाकानो, जैकब हिल्टन, सुचिर बालाजी, जेफ वू, लॉन्ग ओयांग, क्रिस्टीना किम, क्रिस्टोफर हेसे, शांतनु जैन, विनीत कोसाराजू, विलियम सॉन्डर्स, आदि। वेबजीपीटी: मानव प्रतिक्रिया के साथ ब्राउज़र-सहायता प्राप्त प्रश्न-उत्तर। arXiv प्रीप्रिंट arXiv:2112.09332, 2021।


लॉन्ग ओयांग, जेफ़री वू, जू जियांग, डिओगो अल्मेडा, कैरोल वेनराइट, पामेला मिशकिन, चोंग झांग, संधिनी अग्रवाल, कैटरीना स्लैमा, एलेक्स रे, आदि। मानवीय प्रतिक्रिया के साथ निर्देशों का पालन करने के लिए भाषा मॉडल को प्रशिक्षित करना। न्यूरल सूचना प्रसंस्करण प्रणाली में प्रगति, 35: 27730–27744, 2022।


आरोन पेरिसी, याओ झाओ, और नोआह फिडेल। टैल्म: टूल संवर्धित भाषा मॉडल। arXiv प्रीप्रिंट arXiv:2205.12255, 2022।


युजिया किन, शिहाओ लियांग, यिनिंग ये, कुनलुन झू, लैन यान, याक्सी लू, यांकाई लिन, शिन कांग, जियानगरू तांग, बिल कियान, आदि। टूलम: 16000+ वास्तविक दुनिया एपीआई में महारत हासिल करने के लिए बड़े भाषा मॉडल की सुविधा प्रदान करना। arXiv प्रीप्रिंट arXiv:2307.16789, 2023.


पुष्पेंद्रे रस्तोगी, रयान कॉटरेल और जेसन आइजनर। तंत्रिका संदर्भ के साथ परिमित-अवस्था पारगमन को महत्व देना। एसोसिएशन फॉर कम्प्यूटेशनल लिंग्विस्टिक्स के उत्तरी अमेरिकी अध्याय के 2016 सम्मेलन की कार्यवाही में: मानव भाषा प्रौद्योगिकी, पृष्ठ 623-633, 2016।


टिमो शिक, जेन द्विवेदी-यू, रॉबर्टो डेस, रॉबर्टा रेलियानू, मारिया लोमेली, ल्यूक ज़ेटलमॉयर, निकोला कैनसेडा और थॉमस सियालोम। टूलफ़ॉर्मर: भाषा मॉडल खुद को टूल का उपयोग करना सिखा सकते हैं। arXiv प्रीप्रिंट arXiv:2302.04761, 2023।


योंगलियांग शेन, काइताओ सोंग, जू टैन, डोंगशेंग ली, वेइमिंग लू और यूएटिंग झुआंग। हगिंगजीपीटी: हगिंग फेस, 2023 में चैटजीपीटी और उसके दोस्तों के साथ एआई कार्यों को हल करना।


यिफान सोंग, वेइमिन ज़ियोन, दावेई झू, वेनहाओ वू, हान क़ियान, मिंगबो सोंग, हैलियांग हुआंग, चेंग ली, के वांग, रोंग याओ, ये तियान और सुजियान ली। रेस्टग्प्ट: बड़े भाषा मॉडल को वास्तविक दुनिया के रेस्टफुल एपीआई के साथ जोड़ना, 2023।


ह्यूगो टूवरन, थिबॉट लावरिल, गौटियर इज़ाकार्ड, ज़ेवियर मार्टिनेट, मैरी-ऐन लाचॉक्स, टिमोथी लैक्रोइक्स, बैप्टिस्ट रोज़ियर, नमन गोयल, एरिक हैम्ब्रो, फैसल अज़हर, ऑरेलियन रोड्रिग्ज, आर्मंड जौलिन, एडौर्ड ग्रेव और गिलियूम लैम्पल। लामा: ओपन एंड एफिशिएंट फाउंडेशन लैंग्वेज मॉडल, 2023।


शुन्यु याओ, जेफरी झाओ, डियान यू, नान डू, इजाक शफरान, कार्तिक नरसिम्हन और युआन काओ। रिएक्ट: भाषा मॉडल में तर्क और अभिनय का समन्वय, 2023।


लियानमिन झेंग, वेई-लिन चियांग, यिंग शेंग, सियुआन झुआंग, झांगहाओ वू, योंगहाओ झुआंग, ज़ी लिन, झुओहान ली, दाचेंग ली, एरिक। पी ज़िंग, हाओ झांग, जोसेफ ई. गोंजालेज, और आयन स्टोइका। एमटी-बेंच और चैटबॉट एरिना के साथ एलएलएम-एज-ए-जज का निर्णय, 2023।


यह पेपर CC 4.0 DEED लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।


L O A D I N G
. . . comments & more!

About Author

Writings, Papers and Blogs on Text Models HackerNoon profile picture
Writings, Papers and Blogs on Text Models@textmodels
We publish the best academic papers on rule-based techniques, LLMs, & the generation of text that resembles human text.

लेबल

इस लेख में चित्रित किया गया था...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite