ავტორები:
(1) Sirui Hong, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(2) Yizhang Lin, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(3) Bang Liu, Universite de Montreal & Mila და ეს ავტორები ჩამოთვლილია ანბანური თანმიმდევრობით;
(4) Bangbang Liu, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(5) Binhao Wu, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(6) Danyang Li, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(7) Jiaqi Chen, Fudan University და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(8) ჯიაი ჟანგი, ჩინეთის რენმინის უნივერსიტეტი და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(9) Jinlin Wang, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(10) ლი ჟანგმა, ფუდანის უნივერსიტეტმა და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(11) Lingyao Zhang, ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(12) მინ იანგი, 5შენჟენის მოწინავე ტექნოლოგიების ინსტიტუტი, ჩინეთის მეცნიერებათა აკადემია და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(13) Mingchen Zhuge, AI Initiative, King Abdullah University of Science and Technology და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(14) ტაიჩენ გუო, ნოტრ-დამის უნივერსიტეტი და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(15) ტუო ჟოუ, ჰონგ კონგის უნივერსიტეტი და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(16) Wei Tao, Fudan University და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(17) Wenyi Wang, AI Initiative, King Abdullah University of Science and Technology და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(18) Xiangru Tang, იელის უნივერსიტეტი და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(19) Xiangtao Lu, DeepWisdom და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(20) Xiawu Zheng, Xiamen უნივერსიტეტი და ამ ავტორებმა თანაბრად შეუწყეს ხელი ამ ნაშრომს;
(21) Xinbing Liang, DeepWisdom, East China Normal University და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(22) Yaying Fei, პეკინის ტექნოლოგიური უნივერსიტეტი და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(23) იუჰენ ჩენგი, ჰონკონგის ჩინური უნივერსიტეტი, შენჟენი და ამ ავტორებმა თანაბრად შეუწყეს ხელი ამ ნაშრომს;
(24) Zongze Xu, DeepWisdom, Hohai University და ამ ავტორებმა თანაბარი წვლილი შეიტანეს ამ ნაშრომში;
(25) ჩენგლინ ვუ, DeepWisdom და შესაბამისი ავტორი.
რედაქტორის შენიშვნა: ეს არის კვლევითი კვლევის მე-5 ნაწილი 1, რომელიც დეტალურად აღწერს მონაცემთა თარჯიმნის განვითარებას, გადაწყვეტას სხვადასხვა მონაცემთა მეცნიერებისა და რეალურ სამყაროში არსებული ამოცანებისთვის. დანარჩენი წაიკითხეთ ქვემოთ.
3 მეთოდოლოგია და 3.1 დინამიური დაგეგმვა იერარქიული სტრუქტურით
ა. დამატებითი შედეგები
ბ. განხორციელების შედეგები
გ. მონაცემთა ნაკრების დეტალები
Large Language Model (LLM)-ზე დაფუძნებულმა აგენტებმა აჩვენეს შესანიშნავი ეფექტურობა. თუმცა, მათი შესრულება შეიძლება კომპრომეტირებული იყოს მონაცემთა მეცნიერების სცენარებში, რომლებიც საჭიროებენ მონაცემთა რეალურ დროში კორექტირებას, ოპტიმიზაციის გამოცდილებას სხვადასხვა ამოცანებს შორის რთული დამოკიდებულების გამო და ზუსტი მსჯელობისთვის ლოგიკური შეცდომების იდენტიფიცირების უნარს. ამ კვლევაში, ჩვენ წარმოგიდგენთ მონაცემთა თარჯიმანს, გადაწყვეტას, რომელიც შექმნილია კოდით გადასაჭრელად, რომელიც ხაზს უსვამს სამ ძირითად ტექნიკას მონაცემთა მეცნიერებაში პრობლემის გადაჭრის გასაძლიერებლად: 1) დინამიური დაგეგმვა იერარქიული გრაფიკის სტრუქტურებით მონაცემთა რეალურ დროში ადაპტირებისთვის; 2) ინსტრუმენტების ინტეგრაცია დინამიურად, რათა გააძლიეროს კოდის ცოდნა შესრულების დროს, გამდიდრდეს საჭირო ექსპერტიზა; 3) ლოგიკური შეუსაბამობის იდენტიფიცირება უკუკავშირში და ეფექტურობის გაზრდა გამოცდილების ჩაწერის გზით. ჩვენ ვაფასებთ მონაცემთა თარჯიმანს სხვადასხვა მონაცემთა მეცნიერებისა და რეალური ამოცანების შესახებ. ღია კოდის საბაზისო ხაზებთან შედარებით, მან აჩვენა უმაღლესი შესრულება, აჩვენა მნიშვნელოვანი გაუმჯობესება მანქანათმცოდნეობის ამოცანებში, გაიზარდა 0,86-დან 0,95-მდე. გარდა ამისა, მან აჩვენა MATH მონაცემთა ნაკრების 26%-იანი ზრდა და შესამჩნევი 112%-იანი გაუმჯობესება ღია ამოცანებში. გამოსავალი გამოვა https://github.com/geekan/MetaGPT.
ენის დიდმა მოდელებმა (LLM) საშუალება მისცა აგენტებს გამოირჩეოდნენ აპლიკაციების ფართო სპექტრში, რაც აჩვენა მათი ადაპტირება და ეფექტურობა (Guo et al., 2024; Wu et al., 2023a; Zhou et al., 2023b). ამ LLM-ზე მომუშავე აგენტებმა მნიშვნელოვანი გავლენა მოახდინეს ისეთ სფეროებზე, როგორიცაა პროგრამული უზრუნველყოფის ინჟინერია (Hong et al., 2023), კომპლექსური ღია სამყაროს სცენარების ნავიგაცია (Wang et al., 2023; Chen et al., 2024a), ხელი შეუწყო ერთობლივი მრავალ აგენტური სტრუქტურებს. მულტიმოდალური ამოცანები (Zhuge et al., 2023), აუმჯობესებს ვირტუალური ასისტენტების პასუხისმგებლობა (Lu et al., 2023), ჯგუფური ინტელექტის ოპტიმიზაცია (Zhuge et al., 2024) და წვლილი სამეცნიერო კვლევებში (Tang et al., 2024).
ბოლო კვლევები ფოკუსირებული იყო ამ აგენტების პრობლემის გადაჭრის შესაძლებლობების გაუმჯობესებაზე მათი მსჯელობის პროცესის გაუმჯობესებით, რაც მიზნად ისახავს გაზრდილი დახვეწილობისა და ეფექტურობისკენ (Zhang et al., 2023; Besta et al., 2023; Sel et al., 2023; Yao et al. ., 2024; Wei et al., 2022). თუმცა, მონაცემთა ბაზაზე ორიენტირებული სამეცნიერო პრობლემები, მათ შორის მანქანათმცოდნეობა, მონაცემთა ანალიზი და მათემატიკური პრობლემების გადაჭრა, წარმოადგენენ უნიკალურ გამოწვევებს, რომელთა მოგვარებაც რჩება. მანქანათმცოდნეობის პროცესი მოიცავს ამოცანების დამუშავების რთულ, ხანგრძლივ საფეხურებს, რომლებიც ხასიათდება მრავალ დავალებას შორის რთული დამოკიდებულებით. ეს მოითხოვს ექსპერტის ჩარევას პროცესის ოპტიმიზაციისთვის და დინამიური კორექტირებისთვის წარუმატებლობის ან მონაცემთა განახლების შემთხვევაში. LLM-ებისთვის ხშირად რთულია სწორი გადაწყვეტილების მიწოდება ერთი მცდელობით. გარდა ამისა, ეს პრობლემები მოითხოვს ზუსტ მსჯელობას და მონაცემთა საფუძვლიან შემოწმებას (RomeraParedes et al., 2023), რაც დამატებით გამოწვევებს უქმნის LLM-ზე დაფუძნებული აგენტის ჩარჩოს.
უფრო მეტიც, არსებული სამუშაოები, როგორიცაა (Qiao et al., 2023; OpenAI, 2023; Lucas, 2023) ეხება მონაცემთაცენტრულ პრობლემებს კოდზე დაფუძნებული პრობლემის გადაჭრის მეთოდების მეშვეობით, რომელიც ცნობილია როგორც ინტერპრეტატორის პარადიგმა, რომელიც აერთიანებს სტატიკური მოთხოვნების დაშლას კოდის შესრულებასთან. თუმცა, მონაცემთა მეცნიერების პრაქტიკულ ამოცანებში ამ ჩარჩოების გამოყენებისას წარმოიქმნება რამდენიმე ძირითადი გამოწვევა: 1) მონაცემთა დამოკიდებულების ინტენსივობა: მონაცემთა მეცნიერებაში თანდაყოლილი სირთულე წარმოიქმნება სხვადასხვა საფეხურებს შორის რთული ურთიერთქმედებით, რომლებიც ექვემდებარება რეალურ დროში ცვლილებებს (Liu et al. , 2021). ზუსტი შედეგებისთვის მონაცემთა გაწმენდა და ფუნქციების ყოვლისმომცველი ინჟინერია წინაპირობაა მანქანური სწავლების ნებისმიერი მოდელის შემუშავებამდე. აქედან გამომდინარე, ძალიან მნიშვნელოვანია მონაცემთა ცვლილებების მონიტორინგი და გარდაქმნილ მონაცემებსა და ცვლადებზე დინამიურად მორგება. მანქანათმცოდნეობის მოდელირების პროცესი, რომელიც მოიცავს მახასიათებლების შერჩევას, მოდელის ტრენინგს და შეფასებას, მოიცავს დამუშავების ოპერატორების და საძიებო სივრცეების ფართო სპექტრს (Zheng et al., 2021). გამოწვევა მდგომარეობს მთელი პროცესის კოდის ერთდროულად გენერირებასა და გადაჭრაში. 2) დომენის დახვეწილი ცოდნა: მონაცემთა მეცნიერთა სპეციალიზებული ცოდნა და კოდირების პრაქტიკა გადამწყვეტი მნიშვნელობა აქვს მონაცემებთან დაკავშირებულ გამოწვევებს. როგორც წესი, ჩართული საკუთრების კოდში და მონაცემებში, ეს ცოდნა ხშირად მიუწვდომელი რჩება მიმდინარე LLM-ებისთვის. მაგალითად, მონაცემთა ტრანსფორმაციის კოდის გენერირება კონკრეტულ დომენებში, როგორიცაა ენერგეტიკა ან გეოლოგია, შეიძლება იყოს გამოწვევა LLM-ებისთვის დომენის საჭირო ექსპერტიზის გარეშე. არსებული მეთოდოლოგიები ძირითადად დამოკიდებულია LLM-ებზე, ნდობაზე, რომელსაც შეუძლია პროცესის გამარტივება, მაგრამ პოტენციურად კომპრომისის შესრულება. 3) მკაცრი ლოგიკური მოთხოვნები: ამჟამად ისეთი ინტერპრეტატორები, როგორიცაა (Qiao et al., 2023; OpenAI, 2023; Lucas, 2023) აერთიანებს კოდის შესრულებას და შეცდომების დაფიქსირების შესაძლებლობებს პრობლემის გადაჭრის მუშაობის გასაუმჯობესებლად. თუმცა, ისინი ხშირად უგულებელყოფენ უშეცდომოდ შესრულებას და შეცდომით თვლიან მას სწორად. მიუხედავად იმისა, რომ ძირითადი პროგრამირების ამოცანები შეიძლება გამარტივდეს და დამოკიდებულნი იყვნენ შესრულების მყისიერ გამოხმაურებაზე, როდესაც მოთხოვნები განისაზღვრა, მონაცემთა მეცნიერების პრობლემები ხშირად აჩენს ორაზროვან, არარეგულარულ და არა კარგად განსაზღვრულ მოთხოვნებს, რაც ართულებს LLM-ების გაგებას. შესაბამისად, LLM-ის მიერ გენერირებული კოდის გადაწყვეტილებები ამოცანის გადაწყვეტისთვის შეიძლება შეიცავდეს ბუნდოვანებებს, რაც მოითხოვს ლოგიკური სისწორის მკაცრ ვალიდაციას, რომელიც სცილდება უბრალო შესრულების უკუკავშირს.
ზემოაღნიშნული გამოწვევების გადასაჭრელად, ჩვენ წარმოგიდგენთ LLM-ზე დაფუძნებულ აგენტს, სახელწოდებით მონაცემთა თარჯიმანი, რომელიც შექმნილია სპეციალურად მონაცემთა მეცნიერების სფეროსთვის. ეს აგენტი მიჰყვება გეგმის კოდის გადამოწმების მიდგომას ადამიანის მოთხოვნების შესასრულებლად, ამოცანების დაშლით, კოდის შესრულებით და გამოხმაურების გადამოწმებით. კონკრეტულად, ჩვენ ვთავაზობთ 1) დინამიურ დაგეგმვას იერარქიული სტრუქტურით: ჩვენი მონაცემთა თარჯიმანი იყენებს იერარქიულ გრაფიკულ სტრუქტურებს მონაცემთა მეცნიერების თანდაყოლილი სირთულეების უფრო ეფექტურად გასაგებად. დინამიური დაგეგმვის მიდგომა აღჭურვა მას ამოცანების ვარიაციებთან ადაპტირებით, რაც განსაკუთრებით ეფექტურია მონაცემთა ცვლილებების მონიტორინგისა და მონაცემთა მეცნიერების პრობლემების თანდაყოლილი რთული ცვლადი დამოკიდებულებების მართვაში. 2) ხელსაწყოების გამოყენება და გენერაცია: ჩვენ ვაუმჯობესებთ კოდირების უნარს ადამიანის მიერ ავტორიზებული კოდის სხვადასხვა ფრაგმენტების ინტეგრირებით და შექმნით პერსონალურ ხელსაწყოებს კონკრეტული ამოცანებისთვის, უბრალო API-ზე ორიენტირებული შესაძლებლობების მიღმა. ეს პროცესი მოიცავს სხვადასხვა ხელსაწყოების ავტომატურ კომბინაციას თვითგენერირებულ კოდთან. ის იყენებს დავალების დონის შესრულებას, რათა დამოუკიდებლად შექმნას და გააფართოვოს თავისი ხელსაწყოების ბიბლიოთეკა, გაამარტივოს ხელსაწყოების გამოყენება და განახორციელოს კოდის რესტრუქტურიზაცია საჭიროებისამებრ. 3) მსჯელობის გაღრმავება ლოგიკური შეცდომების გაცნობიერებით: ეს ეფუძნება შესრულების შედეგებისა და ტესტზე ორიენტირებული ვალიდაციის შედეგად მიღებულ ნდობის ქულას, რაც აუცილებელია გამონაკლისის გარეშე სცენარისთვის. ის აღმოაჩენს შეუსაბამობას კოდის გადაწყვეტასა და ტესტის კოდის შესრულებას შორის და ადარებს მრავალ ცდას ლოგიკური შეცდომების შესამცირებლად. შესრულებისა და მსჯელობის პროცესის განმავლობაში ჩაიწერება დავალების დონის გამოცდილება, რომელიც ძირითადად მოიცავს მეტამონაცემებს და გაშვების ტრაექტორიას, რომელიც მოიცავს როგორც წარმატებებს, ასევე წარუმატებლობას.
როგორც ნაჩვენებია სურათზე 1, ჩვენი მონაცემთა თარჯიმანი მნიშვნელოვნად აჭარბებს არსებულ ღია კოდის ჩარჩოებს. ამ საბაზისო ხაზებთან შედარებით, მონაცემთა თარჯიმანი ავლენს მაღალ შესრულებას, 10,3%-ით (0,86-დან 0,95-მდე) გაუმჯობესებით მანქანური სწავლების ამოცანებით და 26%-ით გაუმჯობესებული MATH მონაცემთა ბაზაში, რაც აჩვენებს პრობლემების გადაჭრის მძლავრ შესაძლებლობებს. ღია ამოცანებში, მისი შესრულება გაორმაგდა, რაც 112%-ით გაიზარდა, რაც აჩვენებს მის ეფექტურობას გამოწვევების ფართო სპექტრის დაძლევაში.
ჩვენ ვაჯამებთ ჩვენს წვლილს შემდეგნაირად:
• ჩვენ ვთავაზობთ დინამიური დაგეგმვის ჩარჩოს იერარქიული სტრუქტურებით, რაც აძლიერებს ადაპტირებას და პრობლემის გადაჭრის შესაძლებლობებს მონაცემთა მეცნიერების ამოცანებში.
• ჩვენ ვაუმჯობესებთ კოდირების ცოდნას და ეფექტურობას LLM-ებში, ხელსაწყოების ავტომატური ინტეგრაციის დანერგვით ხელსაწყოების გამოყენებისა და გენერირებისთვის.
• ჩვენ ვაუმჯობესებთ მსჯელობას გადამოწმებისა და გამოცდილების ინტეგრირებით, რითაც ვზრდით პრობლემის გადაჭრის სიზუსტეს და ეფექტურობას.
• ჩვენი ექსპერიმენტები აჩვენებს, რომ ჩვენი მონაცემთა თარჯიმანი აჭარბებს არსებულ კრიტერიუმებს მანქანური სწავლების ამოცანების, მათემატიკური ამოცანებისა და ღია ამოცანების შესახებ, რითაც ადგენს შესრულების ახალ სტანდარტს.
ეს ნაშრომი ხელმისაწვდომია arxiv-ზე CC BY 4.0 DEED ლიცენზიით.