बाईं ओर टेबल अवलोकन और 1. परिचय 1.1 Syllogisms की संरचना 1.2 लंबी रचनाओं की कठोरता 1.3 वैश्विक तर्क की कठोरता 1.4 हमारे योगदान Results on the local reasoning barrier 2.1 Defining locality and auto-regressive locality 2.2 Transformers require low locality: formal results 2.3 Agnostic scratchpads cannot break the locality Scratchpads to break the locality 3.1 Educated scratchpad 3.2 Inductive Scratchpads Conclusion, Acknowledgments, and References A. अन्य संबंधित साहित्य B. अतिरिक्त प्रयोग C. प्रयोग और कार्यान्वयन के विवरण D. सिद्धांत का सबूत 1 E. Lemma 1 पर टिप्पणी F. सर्किट जटिलता कनेक्शन पर चर्चा G. ChatGPT के साथ अधिक प्रयोग F सर्किट जटिलता कनेक्शन पर चर्चा दूसरी ओर, उचित सेटअप के साथ, गहरी न्यूरो नेटवर्क, पुनरावृत्ति न्यूरो नेटवर्क, और स्क्रैचपैड के साथ ट्रांसफार्मर ट्यूरिंग नेटवर्क पूर्ण हैं। इसके अलावा, वे ट्यूरिंग मशीन के लिए चलाए जाने वाले चरणों की संख्या में पॉलिनोमील संसाधनों का उपयोग कर एक ट्यूरिंग मशीन का अनुकरण कर सकते हैं और इनपुट लंबाई। इसलिए, उचित पैरामीटरों के साथ, ये प्रभावी ढंग से किसी भी समस्या को हल कर सकते हैं जिसे प्रभावी ढंग से हल करना संभव है। थोड़ा अधिक सटीक रूप से, एक न्यूरोमील नेटवर्क के साथ, जहां इनपुट बिट्स 0 या 1 हैं, यह एक न्यूरोन को एक AND, OR, या G ChatGPT के साथ अधिक प्रयोग . n ≥ 1 के लिए, हम अलग-अलग ऊंचाइयों वाले 3n + 2 लोगों को मानते हैं. हम मॉडल 3n + 1 को लगातार लोगों के बीच (उच्चता के क्रम में) जोड़े-जैसे रिश्तों को यादृच्छिक क्रम में देते हैं. इस जानकारी का उपयोग करके, हम सभी लोगों के लिए ऊंचाइयों की क्रम को डेटा को जोड़कर समझ सकते हैं. हम व्यक्ति n + 1 और 2n + 2 के बीच संबंध के बारे में मॉडल से पूछते हैं. n = 1 के लिए एक उदाहरण Height comparison "ओमर सारा से ऊँचा है, व्लाद दाविद से ऊँचा है, फ़राह ओमर से ऊँचा है, सारा व्लाद से ऊँचा है, ओमान व्लाद से ऊँचा है? जहां उत्तर सच है. ध्यान दें कि इस प्रश्न का सही जवाब देने के लिए एक को कम से कम n + 1 रिश्तों को जोड़ने की जरूरत है. इस प्रकार, कार्य की स्थानीयता हमेशा n से बड़ा होता है. (सटीक स्थान टोकनेशन पर निर्भर करेगा.) हमने पाया कि ChatGPT (GPT3.5) इस कार्य पर भी n = 1 (सबसे सरल मामला) के लिए भी विफल रहता है. ध्यान दें कि जब GPT3.5 मॉडल के साथ काम करते हैं तो हमने निम्नलिखित विस्फोट का उपयोग किया ताकि मॉडल सोच की श्रृंखला तर्क का उपयोग करने में सक्षम हो: "आप सोच सकते हैं अगर आप चाहते हैं लेकिन अपने जवाब में हाँ/नहीं को शामिल करने के लिए सुनिश्चित करें." दिलचस्प बात यह है कि, GPT4 GPT लेखक : (1) Emmanuel Abbe, Apple और EPFL; Samy Bengio, ऐप्पल (3) एरियो लोफ, EPFL; (4) कोलिन सैंडन, EPFL; (5) Omid Saremi, सेब। Authors: (1) Emmanuel Abbe, Apple और EPFL; Samy Bengio, ऐप्पल (3) एरियो लोफ, EPFL; (4) कोलिन सैंडन, EPFL; (5) Omid Saremi, सेब। यह लेख CC BY 4.0 लाइसेंस के तहत archiv पर उपलब्ध है। यह लेख CC BY 4.0 लाइसेंस के तहत archiv पर उपलब्ध है। Archive पर उपलब्ध