यह पेपर CC 4.0 लाइसेंस के अंतर्गत arxiv पर उपलब्ध है।
लेखक:
(1) डी.सिंक्लेयर, इमेंस लिमिटेड, और ईमेल: [email protected];
(2) डब्ल्यूटीपीये, वारविक विश्वविद्यालय, और ईमेल: [email protected].
लेखक पूर्व-प्रशिक्षित वृहद भाषा मॉडल की LlaMa2 श्रृंखला के लिए उचित तरीके से मॉडल भार जारी करने में मेटा की असाधारण उदारता को स्वीकार करते हैं।
[1] ओपन एआई. चैटजीपीटी-4 तकनीकी रिपोर्ट. 2023. यूआरएल https://arxiv.org/pdf/2303.08774.pdf.
[2] मेटा जेनएआई, थॉमस सियालोम, और ह्यूगो टूव्रोन। लामा 2: ओपन फाउंडेशन और फाइन-ट्यून्ड चैट मॉडल। 2023. यूआरएल https://arxiv.org/pdf/2307.09288.pdf.
[3] रोज़लिंड डब्ल्यू. पिकार्ड. अफ़ेक्टिव कंप्यूटिंग. एमआईटी प्रेस, 1997.
[4] जे स्ट्रैबिस्मस. जेडी धर्म: क्या प्रेम ही शक्ति है? अमेज़न किंडल, 2013.
[5] आशीष वासवानी, नोम शज़ीर, निकी परमार, जैकब उस्कोरिट, लियोन जोन्स, ऐडन एन. गोमेज़, लुकाज़ कैसर और इलिया पोलोसुखिन। आपको बस ध्यान देने की ज़रूरत है। CoRR, abs/1706.03762, 2017. URL http://arxiv.org/abs/1706.03762.
[6] वेनक्सुआन झांग, यू डेंग, बिंग लियू, सिन्नो जियालिन पैन, और लिडोंग बिंग। बड़े भाषा मॉडल के युग में भावना विश्लेषण: एक वास्तविकता जाँच, 2023।