Tā kā mākslīgais intelekts (AI) attīstās strauji, pagrieziena punkti tā attīstībā bieži šķiet tā, it kā tie notiktu visu laiku.
Mūsdienu lielie valodu modeļi (LLM) ir kļuvuši spējīgi veikt neticamus varoņdarbus dabiskās valodas apstrādes ziņā, taču tie bieži paklūp, saskaroties ar sarežģītiem, daudzpakāpju argumentācijas uzdevumiem, kuros precizitāte un caurspīdīgums nav apspriežami.
Viņu tieksme uz neparedzamām halucinācijām un nekonsekventa spēja rīkoties sarežģītā, daudzpakāpju spriešanā ir padarījusi šīs viena aģenta AI sistēmas neuzticamas scenārijos, kur svarīga ir precizitāte, caurspīdīgums un pielāgošanās spēja.
Daži modeļi ir labāki par citiem jebkura uzdevuma veikšanai, taču, izvēloties labāko, kas atbilst jūsu mērķiem, dažkārt var šķist, ka jāripina kauliņi.
Daudzi eksperti ir noguruši no savu rezultātu precizēšanas, taču tas prasa būtisku pārdomāt, kā darbojas LLM.
Jaunā vairāku aģentu AI sistēmu koncepcija jau ir ieviesta uzņēmumā Skillfully, taču tas ir tikai viens no aspektiem attiecībā uz vairāku aģentu AI potenciālu atjaunot LLM visu veidu reālās pasaules lietojumprogrammām.
Šī pieeja koncentrējas uz izkliedētu izziņu, izmantojot vairāku aģentu AI sistēmas, kas atspoguļo cilvēku komandu darbību profesionālā vidē.
Lai cik daudzpusīgi tie būtu, viena modeļa LLM būtiski ierobežo to dizaina arhitektūra, ja tos izmanto augstu likmju biznesa lēmumu pieņemšanai.
Neskatoties uz sarežģīto parametru skaitu un plašiem apmācības datiem, tās darbojas kā vienotas sistēmas ar vairākiem raksturīgiem tehniskiem ierobežojumiem:
Piemēram, jebkuram uzņēmumam, kas vēlas iet kopsolī mūsdienu tirgū, būs nepieciešams AI, kas var godīgi un precīzi novērtēt kandidātu spējas. Cilvēku pieņemšanas eksperti paļaujas uz datu un labi izstrādātas profesionālās intuīcijas kombināciju, savukārt tradicionālās mākslīgā intelekta sistēmas, kurām tiek lūgts darīt to pašu, mēdz izmantot iepriekšējos amatus vai izglītības akreditācijas datus kā spējas, nevis novērtēt faktiskās prasmes.
Rezultātā mākslīgais intelekts var radīt neprecīzus vai maldinošus rezultātus, ja tiek lūgts pieņemt lēmumus, pamatojoties uz netiešiem signāliem, nevis konkrētiem veiktspējas datiem.
Varbūt vēl svarīgāk ir tas, ka stabilu savstarpējās pārbaudes mehānismu trūkums noved pie tā, ka rezultātiem trūkst izskaidrojamības un skaidru novērtējuma sistēmu, atstājot darbā pieņemšanas vadītājus ar nepārprotamiem ieteikumiem, kad viņiem visvairāk nepieciešami praktiski norādījumi.
Lai mākslīgais intelekts būtu patiesi noderīgs uzņēmējdarbībā, tam ir jānodrošina reāla, pārredzama lēmumu pieņemšana, nevis tikai virsmas līmeņa prognozes.
Kad viņš saskārās ar šo pašu problēmu, izstrādājot Skillfully, Kanjirathinkal koncentrējās uz LLM arhitektūras izveidi, kas vienā galvenajā veidā domā atšķirīgi; nevis paļauties uz vienu modeli, lai apstrādātu visu, vairāku aģentu darbplūsmas sadala uzdevumus starp specializētiem AI aģentiem.
Šie aģenti strādā kopā, katrs koncentrējoties uz noteiktu funkciju, piemēram, kontekstuālo izpratni, uzdevumu izpildi vai kvalitātes kontroli, lai iegūtu precīzākus un ticamākus rezultātus.
Šis jaunais domāšanas veids jau darbojas Skillfully darbā pieņemšanas platformā, kurā tiek izmantotas organizētas vairāku aģentu AI sistēmas, lai nodrošinātu uzticamāku, uz cilvēku vērstu darbā pieņemšanas procesu. Skillfully AI aģenti dinamiski novērtē prasmes, analizējot, kā indivīdi darbojas simulētā vidē. Pateicoties vairākiem AI aģentiem, kas savstarpēji pārbauda ieskatus, sistēma ievērojami samazina halucināciju un kļūdainu ieteikumu risku, nodrošinot skaidrāku un precīzāku priekšstatu par kandidāta iespējām.
Kanjirathinkal arī strādāja, lai izskaidrojamību padarītu par sistēmas stūrakmeni. Prasmīgi pieņemtie darbā pieņemšanas ieteikumi tiek atbalstīti ar iepriekš definētām novērtējuma rubrikām, caurspīdīgiem vērtēšanas mehānismiem un detalizētiem LLM aģentu sniegtajiem pamatojumiem.
Tāpat kā cilvēku atlases eksperta, arī Skillfully ieteikumi ir attaisnojami un niansēti. Atšķirībā no cilvēku ekspertiem šiem ieteikumiem ir nodrošināta stabila neobjektivitātes mazināšana, izmantojot vairāku aģentu savstarpējās pārbaudes, kuru pamatā ir konsekventas novērtēšanas sistēmas, kas rada skaidras revīzijas pēdas. Šī nākamā līmeņa caurskatāmība apsteidz arī topošos AI noteikumus, kas var noķert mazāk niansētus LLM nesagatavotus.
Neskatoties uz priekšrocībām, vairāku aģentu sistēmu ieviešana rada jaunas tehniskas sarežģītības:
Šie izaicinājumi ir nākamā AI arhitektūras robeža. Kā Kanjirathinkal ir pierādījis vietnē Skillfully, dalītās izziņas priekšrocības atsver šos ieviešanas šķēršļus, ja likmes ir saistītas ar cilvēku rezultātiem, piemēram, godīgu darbā pieņemšanas praksi.
Džonsons Džeimss Kanjirathinkals ir pārliecināts, ka rītdienas AI sistēmas būs specializētas, lai papildinātu cilvēka spējas reālās pasaules lietojumprogrammās, ar panākumiem daudzu aģentu darbplūsmās, pieņemot darbā kritisku testa piemēru jaunām modulārām, sadarbības AI sistēmām, kas var gūt panākumus vairākās jomās.
Viņš uzskata, ka AI ir jāvirzās tālāk par monolītiem, viena aģenta modeļiem, lai efektīvi risinātu reālās pasaules problēmas. Vairāku aģentu darbplūsmas piedāvā uzticamāku, mērogojamāku un interpretējamāku alternatīvu, kas saskaņo AI ar cilvēku vajadzībām, nevis liek uzņēmumiem pielāgoties AI ierobežojumiem.
Vairāku aģentu sistēmas pārdomā AI mazāk kā vienu operatoru un vairāk kā speciālistu komandu, kas var apstrīdēt, pilnveidot un balstīties uz viena otras ieskatiem. Kanjirathinkal ir demonstrējis vienu pielietojumu šim nolūkam darbā Skillfully, pārvēršot to, kas kādreiz bija stingrs, necaurspīdīgs process, par kaut ko elastīgāku un godīgāku.
Tāda pati maiņa ir iespējama visur, kur AI tiek lūgts pieņemt svarīgus lēmumus.