AI სისტემამ ახლახანს უარყო იპოთეკა. არცერთმა ადამიანმა არ განიხილა თქვენი საქმე, არავითარი გასაჩივრება შეუძლებელია და თქვენი ნუგეშისცემის პრიზი არის უხერხული ახსნა: „თქვენი კრედიტის გამოყენების კოეფიციენტმა გამოიწვია უარყოფითი შედეგი“. გრძნობთ დამშვიდებას? ასე არ მეგონა .
რაც უფრო მეტს ვტვირთავთ მანქანებში, მით უფრო ხმამაღლა ვითხოვთ ახსნად AI (XAI) - ინსტრუმენტებს, რომლებიც დაამტვრევს ბოტებს და გამოგვყავს შავი ყუთების ქსელიდან. ეს არის პროგრამული სრულყოფილება! ერთჯერადი გადაწყვეტა ჩვენი ტექნოფობიის დასამშვიდებლად და მანქანების კონტროლისთვის.
გარდა იმისა, რომ არ არის.
ახსნადი AI არ ამარტივებს ქაოსს; ის უბრალოდ რებრენდინგს უკეთებს მას.
ჩვენ ვიღებთ მოოქროვილი ილუზიას: მილიარდები იღვრება დეკოდირების სისტემებში, ხოლო რეალური პრობლემები - მიკერძოება, ბოროტად გამოყენება, გადაჭარბება - ხელუხლებელი რჩება.
ფასი? დოლარზე ბევრად მეტი.
მიმდინარე ახსნადი AI (XAI) ეყრდნობა მეთოდებს, როგორიცაა SHAP (Shapley Additive Explanations) და LIME (Local Interpretable Model-Agnostic Explanations) კორელაციის დასადგენად, ვიდრე მიზეზობრიობის . SHAP ეყრდნობა კოოპერატიული თამაშების თეორიას, რათა გადაანაწილოს „ბრალი“ საკვანძო შენატანებზე - როგორიცაა შემოსავლის დონე, საკრედიტო ისტორია ან პიქსელების კლასტერები - ასახავს ცვლადებს, რომლებიც სასწორს აბრუნებენ, ხოლო LIME ასწორებს შეყვანის მონაცემებს, რათა დაინახოს, თუ როგორ იცვლება პროგნოზები და ქმნის გამარტივებულ მოდელს. ეს განმარტავს, თუ რომელი მახასიათებლები იყო ყველაზე მნიშვნელოვანი კონკრეტული გადაწყვეტილების მისაღებად. გამოსახულების მძიმე აპლიკაციები მიმართავენ გამორჩეულ რუქას , რომელიც იყენებს ტექნიკას გრადიენტზე დაფუძნებული ანალიზიდან, რათა დადგინდეს, რომელ პიქსელებს მიიპყრო AI-ს თვალი. უფრო მაღალი ფსონის სცენარები, როგორიცაა ჯანდაცვა და დაქირავება, მიმართავენ კონტრფაქტურ ახსნას , რომელიც ოცნებობს ალტერნატიულ რეალობებზე, რათა გამოავლინოს პოტენციური შედეგები, თუ შეყვანა დამაჯერებლად შეიცვლება: მაგ., „რა იქნებოდა, თუ სიმსივნე 2 მმ-ით პატარა იყო?“.
თუ თქვენ მზად ხართ გადაიხადოთ სოლიდური ელექტროენერგიის გადასახადი, XAI-ს შეუძლია მოგაწოდოთ დასაშვები ანგარიში იმის შესახებ, რაც მნიშვნელოვანია. მაგრამ რატომ ? ნადა.
"ჩემი კონვოლუციური ნერვული ქსელის 34-ე ფენამ დაარეგისტრირა 12.3% პიქსელის ინტენსივობის ანომალია ზედა მარჯვენა კვადრატში, რომელიც დაკავშირებულია ავთვისებიანი სიმსივნეების მარკერებთან დემოგრაფიული და გენეტიკური კოვარიანტობისთვის ნორმალიზებული 15-რეგიონის მონაცემთა ნაკრებში, რაც იძლევა ნდობის ქულას, რომელიც აღემატება ავთვისებიანი სიმსივნეების ზღურბლს. უკანა კალიბრაცია."
ასე გამოიყურება " რატომ" . დამაბნეველი? ყველაზე აუცილებლად . ანუგეშებს? მარგინალურად .
მაგრამ ამ დონის ახსნა-განმარტების გენერირება (რომელიც უმეტესობა უბრალოდ ამოიღებს IKEA-ს ასამბლეის სახელმძღვანელოსთან ერთად) არ არის მხოლოდ ძვირი — ეს დამღუპველი იქნება . ცუდი თვალსაზრისით. ახსნა-განმარტება ამცირებს გამოთვლით რესურსებს, ანელებს ინოვაციებს და რისკავს ყოველი ახალი გარღვევის თვითგამართლების ბიუროკრატიად გადაქცევას. მიუხედავად იმისა, რომ ახსნა-განმარტების დაპირება კეთილშობილურია, კომპრომისებმა შეიძლება ჩაახშო ხელოვნური ინტელექტის რეალური პოტენციალი. ღირს თუ არა მიზანი „რატომ“ პროგრესის შეფერხება?
საბოლოო ჯამში, მთავარი ის არ არის, თუ როგორ მუშაობს ხელოვნური ინტელექტი - ის მუშაობს თუ არა ჩვენთვის.
ჭეშმარიტად პასუხის გასაცემად, თუ რატომ იქნა მიღებული გადაწყვეტილება, ვითარდება ისეთი განვითარებადი ტექნოლოგიები, როგორიცაა ნეირო-სიმბოლური AI , კონტრასტული ახსნა და მიზეზობრივი დასკვნის მოდელები . ეს მეთოდები ეყრდნობა ჰიბრიდულ არქიტექტურებს, რომლებიც აერთიანებს ღრმა სწავლის ნიმუშის ამოცნობას სიმბოლური მსჯელობის წესებზე დაფუძნებულ ლოგიკასთან. ასეთი სისტემების სწავლება მოითხოვს მნიშვნელოვნად მაღალ გამოთვლით რესურსებს, რადგან ამ მოდელებმა ერთდროულად უნდა დაამუშაონ არასტრუქტურირებული მონაცემები (მაგალითად, სურათები ან ტექსტი) და სტრუქტურირებული ლოგიკური ჩარჩოები, დანერგონ კომბინატორული სირთულე, რომელიც ასახავს ამოცანის მასშტაბებს.
მაგრამ რეალური გამოწვევა მდგომარეობს აპარატურაში. ამჟამინდელი GPU-ები და TPU-ები, როგორიცაა NVIDIA-ს H100 ან Google-ის TPU v5, შექმნილია იმისათვის, რომ მაქსიმალურად გაზარდოს გამტარუნარიანობა სწავლებისა და დასკვნებისთვის - და არა XAI-სთვის საჭირო განმეორებითი, გრადიენტით მძიმე გამოთვლებისთვის. გაფართოებული ახსნა-განმარტებების გენერირება, როგორიცაა მიზეზობრივი ატრიბუტები ან ყურადღების ვიზუალიზაცია, საჭიროებს ჩიპებს, რომლებიც ოპტიმიზებულია გრადიენტური გამეორებისთვის , მეხსიერების დინამიური წვდომისთვის და დაბალი ლატენტური პარალელიზმისთვის . XAI სამუშაო დატვირთვა მოითხოვს ფუნდამენტურად განსხვავებულ აპარატურას, განსაკუთრებით რეალურ დროში აპლიკაციებისთვის, როგორიცაა ავტონომიური მანქანები ან სამედიცინო დიაგნოსტიკა, სადაც ინტერპრეტაცია უნდა მოხდეს პროგნოზებთან ერთად . შეხედეთ, რამდენს ყიდიან დიდი ბიჭები ჩიპებს LLM-ების გასაძლიერებლად. XAI-სპეციფიკური ჩიპების შემუშავების ღირებულება სავარაუდოდ გადააჭარბებს მას, გამოთვლითი ზედნადების ახალი ფენების საჭიროების გამო. საინჟინრო გამოწვევა? უფრო ფინანსურ კოშმარს ჰგავს.
ხელოვნური ინტელექტის შექმნა უკვე ექსპერიმენტებისა და ოპტიმიზაციის მაღალი დონის აქტია. დაამატეთ ახსნა-განმარტება ნარევს და თქვენ უბრალოდ არ მიდიხართ თოკზე - თქვენ ამას აკეთებთ მაცივრით ზურგზე.
ახსნადობა მოითხოვს მოდელების ხელახლა არქიტექტურას ინტერპრეტაციადი შედეგების შესაქმნელად. მაღალი ხარისხის სისტემები, როგორიცაა მხედველობის ტრანსფორმატორები (ViTs) აყვავდება სირთულით - მონაცემთა მასიური სკანირება ნიუანსირებული შაბლონების ამოსაღებად - მაგრამ მათი ახსნა ხშირად ნიშნავს ყურადღების მექანიზმების ან სუროგატული მოდელების ჩანერგვას, რომლებიც ამცირებენ გამოთვლით ძალას და შეუძლიათ ტანკის შესრულება. გაძლიერების სწავლისას, დეველოპერები შეიძლება აიძულონ გაამარტივონ ჯილდოს სტრუქტურები ან შეიმუშაონ გაშიფრული პოლიტიკები, რაც ხელს უშლის აგენტის ოპტიმიზაციის პოტენციალს. იგივე სირთულე, რომელიც აძლიერებს ინოვაციურ შედეგებს, ხდება ბოროტმოქმედი სისტემაში, რომელიც შებოჭილია გამჭვირვალობის მოთხოვნებით .
დეველოპერის მილსადენი ასევე კარგ შერყევას იღებს. ახსნის ტექნიკები, როგორიცაა კონტრფაქტუალები ან მიზეზობრივი მოდელირება, მოითხოვს განმეორებით შეფასებას აშლილ მონაცემთა ნაკრებებზე და დაემატოს ფენა-ფენა პოსტ-ჰოკ ვალიდაციის მიმდინარე გამეორებას (იფიქრეთ ჰიპერპარამეტრების დახვეწაზე, დაკარგვის ფუნქციების შესწორებაზე და დასკვნის გაშვებას მასშტაბით). ეს არ არის რამდენიმე დამატებითი ნაბიჯი; ეს არის მარათონი ყველა ეტაპზე, რომელიც აქცევს ის, რაც უნდა იყოს სპრინტი გარღვევისკენ, ბიუროკრატიულ სლოგანად. გამოთვლითი დატვირთვა? ახსნა-განმარტებები ჭამს ციკლებს, თითქოს ისინი უფასოა, ანელებს უკვე მყინვარული ვარჯიშის პროცესებს მოწინავე სფეროებში, როგორიცაა მრავალმოდალური ან გენერაციული AI.
ჰუზა, შენ მოახერხე! არც ისე სწრაფად , რეგლამენტი მოქმედებს როგორც საბოლოო ბოსი. ისეთი ინდუსტრიები, როგორიცაა ჯანდაცვა და ფინანსები, ავალდებულებს განლაგების ახსნას, მაგრამ ეს მოთხოვნები ხშირად ისეთი შეგრძნებაა, როგორც ლუ ჰამილტონს სთხოვს გაამართლოს მაჯის ყოველი დარტყმა, სანამ ის ფინიშის ხაზს გადაკვეთს. დეველოპერები უფრო მეტ დროს ხარჯავენ თავიანთი მოდელების ინტერპრეტაციის დასამტკიცებლად, ვიდრე იმის უზრუნველსაყოფად, რომ ისინი მუშაობენ ოპტიმალურად. ამოიღეთ ხელოვნური ინტელექტის საფუძველზე კიბოს დიაგნოსტიკური ინსტრუმენტი? გასაოცარია - ახლა წადით, ახსენით ყველა გრადიენტი და წონა სათვალე რგოლების ოთახში. სანამ დაასრულებთ, ტექნოლოგია ალბათ მოძველებულია და ინოვაცია, რომელსაც თქვენ მისდევდით , ჩარჩენილია შესაბამისობის განსაწმენდელში .
ახსნა-განმარტება არღვევს პრიორიტეტებს. იმის ნაცვლად, რომ გადალახონ საზღვრები იმისა, რისი მიღწევაც ხელოვნური ინტელექტის მიღწევას შეუძლია, გუნდები იძულებულნი არიან ფეხის წვერებზე დაიცვან გამჭვირვალობის მოთხოვნები. სტარტაპებმაც და მკვლევარებმაც შეიძლება თავი აარიდონ თამამ იდეებს და აირჩიონ ვანილის შესაბამისობის გამეორება მთვარის კადრებზე. პროგრესი ჩერდება, ამბიციები იშლება და მოედანი რამდენიმე სანტიმეტრით წინ არის, როცა უნდა სპრინტი .
ახსნადი ხელოვნური ინტელექტი აცხადებს, რომ ამარტივებს შეუცნობელს, მაგრამ განმმარტებელი არ არის წმინდანი. ნებისმიერი ხელსაწყო საკმარისად ჭკვიანია მოწინავე მოდელის გასახსნელად საკმარისად ჭკვიანია საკუთარი საიდუმლოების შესაქმნელად . განმმარტებელს სჭირდება თარჯიმანი, თარჯიმანს დასჭირდება თარჯიმანი და თქვენ მიიღებთ აზრს. რეკურსია გამოცხადდა, როგორც გამოცხადება, რაც უფრო ბრძენი არ დაგვტოვებს.
მიიღეთ საპირისპირო ახსნა-განმარტებები , ბიჭები, რომლებიც ახდენენ ალტერნატიული რეალობის სიმულაციას, მაგალითად, რა მოხდება, თუ დაზოგავთ ავოკადოს სადღეგრძელოს დახარჯვის ნაცვლად, რათა აჩვენოთ, როგორ შეიცვლება შედეგები. მაგრამ ეს სცენარები ეყრდნობა ოპტიმიზაციის დაშვებებს, რომლებიც იშვიათად შეესაბამება სიმართლეს, როგორიცაა მახასიათებლების დამოუკიდებლობა ან ხაზოვანი კავშირი შეყვანებს შორის. როდესაც ეს ვარაუდები წარუმატებელია, ახსნა იქცევა კიდევ ერთ გაუგებარ აბსტრაქციად. და ამის გამოსწორება? მიზეზობრივი მოდელების ან გამორჩეული რუქების მეორე ფენა, რომელიც უფრო ღრმად გვახვევს სპირალში, სადაც ყოველი ახალი ინსტრუმენტი მოითხოვს საკუთარ თარჯიმანს. შავი ყუთის გატეხვის ნაცვლად, ჩვენ უბრალოდ ვბუდებთ პატარა, თანაბრად გაუმჭვირვალე ყუთებს შიგნით .
მრავალმოდალური სისტემები - ხელოვნური ხელოვნური ინტელექტის მოდელები, რომლებიც ერთდროულად ამუშავებენ ტექსტს, სურათებს და აუდიოს - ძალიან სასარგებლოა, მაგრამ ამაზრზენად ჩახლართული. იმის ახსნა, თუ როგორ აბალანსებს ეს სისტემები კონკურენტულ შეყვანებს უაღრესად განსხვავებულ სივრცეებში, ჰერკულესური ამოცანაა, რომელიც მოიცავს შერწყმის მექანიზმების გაშიფვრას (როგორიცაა ყურადღების ფენები ან ჯვარედინი ტრანსფორმატორები), რომლებიც აწონებენ და ასწორებენ ფუნქციებს მონაცემთა უზომოდ განსხვავებულ ტიპებში. მაგრამ ეს ახსნა-განმარტების ინსტრუმენტები თავად ეყრდნობა ოპტიმიზაციის კომპლექსურ მარყუჟებს და პარამეტრების დარეგულირებას, რაც საჭიროებს ანალიზის დამატებით ფენებს.
აჰ, სასიამოვნო ირონია : XAI არ ახდენს ხელოვნური ინტელექტის დემისტიფიკაციას - ის აშენებს სხვა მანქანას, ისევე როგორც ჩახლართულ, ამ ილუზიის შესასრულებლად.
ჩვენ არ ვხსნით შავ ყუთს; ჩვენ მას ვყოფთ ნაწილობრივი სიცხადის უსასრულო ნაჭრებად, რომელთაგან თითოეული წინაზე ნაკლებად გასაგებია.
რაც უფრო მეტად ვეძიებთ „რატომ“, მით უფრო გაუმჭვირვალე და ძვირადღირებული AI ხდება, რაც საკუთარ თავში დაწესებულ პარადოქსში გვტოვებს: AI იმდენად ახსნილია, ვერავინ ხსნის მას.
SHAP-მა და LIME-მა შეიძლება გაჩვენოთ ზუსტი ტორტების დიაგრამები იმის შესახებ, თუ რა გავლენა იქონია გადაწყვეტილებაზე, მაგრამ ეს სქემები ისეთივე გულწრფელია, როგორც ადამიანები, რომლებიც მათ ქმნიან . დისკრიმინაციული შედეგები შეიძლება ხელახლა ჩამოყალიბდეს, როგორც ლოგიკური, უვნებელი ცვლადები, როგორიცაა საფოსტო ინდექსი და ხარჯვის ჩვევები ყურადღების ცენტრში მოექცნენ, ხოლო უფრო მახინჯი მიკერძოებები - გენდერული მარიონეტები, შემოსავლების კლასტერები - მოხერხებულად იმალება ჩარჩოებიდან. არასწორ ხელში გამჭვირვალობა ხდება თეატრი.
მაღალი ფსონების დომენებში, ორგანიზაციებს შეუძლიათ აწარმოონ შედეგები, რომლებიც შეესაბამება მკაცრ მარეგულირებელ მოთხოვნებს, არაეთიკური პრაქტიკის ან ტექნიკური მალსახმობების გაურკვევლობისას მხოლოდ რამდენიმე პარამეტრის რედაქტირებით. შეასწორეთ ახსნა-განმარტება, მიაწოდეთ მას სწორი ნარატივი და voilà: დამაჯერებელი უარყოფა კოდის სახით . მიკერძოებული მონაცემთა ნაკრებით ან ნაკლოვანებული მიზნებით მიღებული გადაწყვეტილებები შეიძლება გაჟღენთილი იყოს გაწმენდილი ლოგიკით, რაც ახსნადობას გარდაქმნის ფარად დაკვირვების წინააღმდეგ და არა პასუხისმგებლობის გზად - ფსევდოლოგიკის უნაკლო ფენად, რომელიც შექმნილია კითხვების დაწყებამდე შესაჩერებლად .
იმის ნაცვლად, რომ მილიარდები დავხარჯოთ ხელოვნური ინტელექტის ახსნაზე , ჩვენ უნდა გავამახვილოთ ყურადღება მის გაუმჯობესებაზე . ხელოვნური ინტელექტის რეალური პრობლემები არ არის ის, რომ ჩვენ არ ვიცით, რატომ აკეთებს ის იმას, რასაც აკეთებს - ეს არის ის, რომ ის არასწორ საქმეებს აკეთებს პირველ რიგში. მიკერძოება გადაწყვეტილებებში? 50-ფენიანი ახსნა-განმარტების ნაცვლად იმის შესახებ, თუ რატომ უარყვეს სესხი აღების შეკვეთებმა და გვარებმა, ჩადეთ ინვესტიცია წყაროში მიკერძოების ალგორითმულ შერბილებაში : ხელახლა აწონეთ მონაცემთა ნაკრები, გამოიყენეთ სამართლიანობის შეზღუდვები ტრენინგის დროს, ან გამოიყენეთ საპირისპირო ტექნიკა ფარული მიკერძოების გამოსავლენად და მოსაშორებლად. დააფიქსირეთ ლპობა, სანამ ის მოდელში გამომცხვარი იქნება.
ახსნა-განმარტება ასევე არ გადაჭრის სანდოობას. შეცდომების გასამართლებლად ისეთი ინსტრუმენტებით, როგორიცაა LIME ან SHAP, უკან დახევის ნაცვლად, გამოიყენეთ ძლიერი ოპტიმიზაციის ტექნიკა , რომელიც მოდელებს ნაკლებად მგრძნობიარეს ხდის ხმაურიანი ან საპირისპირო შეყვანის მიმართ. უკეთესმა რეგულაციამ, გარე გამოვლენამ და კალიბრაციის მეთოდებმა - როგორიცაა ტემპერატურის სკალირება ან ბაიესის გაურკვევლობის მოდელები - შეიძლება უზრუნველყოს პროგნოზები არა მხოლოდ ზუსტი, არამედ სანდო. ეს მიდგომა გამოტოვებს ცუდი გადაწყვეტილებების ზედმეტად ახსნის შუა ფენას და ყურადღებას ამახვილებს უკეთესის მიღებაზე.
რეგულირება არის კიდევ ერთი საზღვარი, რომელსაც არ სჭირდება XAI-ს დახვეწილი ტანვარჯიში. ნდობა არ მოითხოვს, რომ ხელოვნური ინტელექტი გაშიშვლდეს სულს, უბრალოდ, ხელოვნური ინტელექტი მუდმივად მუშაობს. იმის ნაცვლად, რომ დააწესოთ ახსნა-განმარტება, როგორც ბუნდოვანი სტანდარტი, უბიძგეთ ენერგიული ტესტირების ჩარჩოებს ყველაზე უარესი შემთხვევის ან ზღვარის სცენარებისთვის და აუდიტის მილსადენებისთვის . იფიქრეთ, როგორც მანქანების ავარიის ტესტები - არავის სჭირდება აირბალიშების გაშლის მექანიკის გაგება; ჩვენ უბრალოდ უნდა ვიცოდეთ, რომ ის მუშაობს. რატომ უნდა იყოს AI განსხვავებული?
„რატომ“ ყურადღების გაფანტვაა. უკეთესი კითხვაა „რა“ — რა შეგვიძლია გავაკეთოთ იმისათვის, რომ ხელოვნური ინტელექტი უფრო სამართლიანი, უსაფრთხო და საიმედო გავხადოთ?
მსოფლიოს არ სჭირდება 100-საფეხურიანი ახსნა, თუ რა მოხდა არასწორად.
მას ესაჭიროება სისტემები, რომლებიც შექმნილია იმისთვის, რომ თავიდან აიცილოს ყველაფერი სწორად.
თუ ხელოვნური ინტელექტი არ გიჭერს უახლოეს Xanax-ს, თქვენ ან ჰერმიტი ხართ, უარყოფთ ან ანარქიას აყალიბებთ. AI არის საშინელი . მაგრამ ჩვენ არ შეგვიძლია მივცეთ უფლება ეგზისტენციალურმა შიშმა მიგვიყვანოს პლაცებოს გადაწყვეტილებებში ისეთივე ჩახლართული, როგორიც არის ქაოსი, რომლის მოგვარებასაც ვცდილობთ .
სასაცილოა, ხელოვნური ინტელექტის მართვის საუკეთესო გზა შეიძლება იყოს მასზე ნაკლები დაყრდნობა. ყველა პრობლემას არ სჭირდება მანქანური სწავლების გამოსწორება და ზოგჯერ, ჩვეულებრივი ძველი ადამიანის განსჯა კარგად მუშაობს. გაბრაზდი. დარჩი შეშინებული. პარანოია აძლიერებს პროგრესს .