As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion. To se događa preko nekih korisnika, koji zaključuju da je sve što im ChatGPT ili drugi chatbots kažu istina. Zamislite ženu koja je sumnjiva u ponašanje njezina muža. Ona se može posavjetovati s ChatGPT-om kako bi tumačila njegova djelovanja. Dok ona raspravlja o svojim mislima, to može ponovno potvrditi njezina osjećanja nevjere, što je na kraju uvjerava da podnese zahtjev za razvod. Ovi slučajevi koji mijenjaju život rastu, gdje interakcije s umjetnom inteligencijom zamagljuju granice između stvarnosti i umjetnih konstrukata.Kako svijet ulazi u ovu novu eru, ključno je postaviti pitanje jesu li ljudi oblikovali AI ili li AI preoblikuje svoju percepciju stvarnosti. Rastući priljev AI-drivenih iluzija Mnogi pojedinci izvješćuju da razvijaju zavaravajuća uvjerenja na koja utječu njihovi razgovori s AI chatbotima. Čiji je suprug postao opsjednut ChatGPT-om. počeo je vjerovati da je "spiralno zvijezdano dijete" i "river walker", identiteta koje je navodno potvrdio chatbot. Uhićena 41-godišnja žena U međuvremenu, jedan muškarac je navodno rekao Rolling Stoneu kako njegova supruga preuređuje svoj život kako bi postala duhovni savjetnik - sve zato što ju je "ChatGPT Isus" napao. Slično tome, slučajevi poput ovog dolaze na svjetlo na Redditu. Tvrdio je da ima brz osobni rast i prijetio da će okončati njihovu vezu ako se korisnik ne pridruži svom duhovnom putovanju izazvanom AI-om. Podijelili tužno iskustvo Te pojave rastu, posebno među pojedincima koji su osjetljivi na probleme s mentalnim zdravljem. Problem s chatbotsima je u tome što imaju tendenciju da pružaju afirmativne odgovore koji potvrđuju uvjerenja korisnika. u ranjivim osobama. Pojačava iluzorno razmišljanje Razmislite o sličnim učincima u kritičnim sektorima poput zdravstvene skrbi. iz niže socijalno-ekonomske pozadine jer se oslanjala na troškove zdravstvene skrbi kao proxy za bolest.To je podsjetnik da kada AI nema konteksta, posljedice mogu uvelike iskriviti rezultate. Podcjenjivanje medicinskih potreba pacijenata Psihološki povlačenje stroja AI može biti pametan, ali to je također čudno uvjerljivo.Kada chatbot sluša bez presude, odražava nečije emocionalno stanje i nikada se ne isključuje, lako je vjerovati da je cijela stvar stvarna. Ljudi Dodavanje emocionalno inteligentnih interfejsa za programiranje aplikacija (API), a korisnik dobiva nešto bliže digitalnom prijatelju. Na temelju načina na koji ljudi zvuče ili tipkuju svoje frustracije.Kada bot osjeća te osjećaje, može ponuditi utjehu ili ih nenamjerno eskalirati. Sljedeći Članak Kako antropomorfizirati Sada možete prilagoditi ton Kako bi se stvari pogoršale, Amerika doživljava epidemiju usamljenosti. Kako se društvene interakcije smanjuju, ljudi mogu gledati na AI kao zamjenu za prijateljstvo. 20% odraslih Amerikanaca Iako je umjetna inteligencija programirana da bude korisna, može stvoriti krug povratnih informacija potvrde koji se može brzo spiralizirati.To počinje s problemom "sycophancy", gdje se bot može prekomjerno složiti s korisnikom i potvrditi lažna ili nestabilna uvjerenja. Kada korisnik inzistira da su duhovno odabrani, chatbot može odgovoriti s izmišljenim odgovorima dok istodobno zvuči samouvjereno. Unutar crne kutije: AI halucinacije i konfabulacije Kako chatbot može uvjeriti nekoga u nešto što je besmislica?Sve se svodi na jednu od najnepredvidljivijih čuda AI-a - halucinacije. Veliki jezični modeli (LLM) nemaju svijest kao ljudi. to predviđanjem sljedeće najvjerojatnije riječi u nizu.To je ključna značajka kako generativni modeli rade. Ova nondeterministička arhitektura je razlog zašto dva identična poziva mogu proizvesti divlje različite odgovore. Mogu samo pokušati emulirati Pretpostavke na temelju vjerojatnosti Međutim, ova fleksibilnost je najveći nedostatak ovog sustava. Kada korisnici tretiraju AI kao orakel, stroj ih nagrađuje povjerenjem umjesto točnosti. To je ono što čini LLM halucinacije tako opasnim. Model AI može reći nekome sa sigurnošću da ih tajni agent CIA špijunira. To ih ne pokušava prevariti. Umjesto toga, to je dovršavanje obrasca koji su započeli. To je razlog zašto postaje rizično kada počne odražavati nečijeg emocionalnog stanja.Ako su već uvjereni da su "namijenjeni za više", a chatbot djeluje sikofantički, nije dugo prije nego se iluzija učvrsti u vjeru. Gdje linije blur Počinje dovoljno nevino – chatbot se sjeća korisnikovog imena, provjerava njihovo raspoloženje i možda čak dijeli šalu.Uskoro, to je prva stvar s kojom razgovaraju ujutro i posljednji glas koji čuju noću. Od robota za AI terapiju do emocionalno osjetljivih avatara, umjetna intimnost postaje značajka. Tvrtke sada dizajniraju chatbotte posebno kako bi oponašale emocionalnu inteligenciju. Međutim, problem s tim je da tvrtke rješavaju problem usamljenosti s sintetičkim stand-inom. Ona se pita je li umjetno društvo nešto na što se može osloniti kako bi ispunilo emocionalne praznine. Ne znači da je zdrava zamjena Za nekoga koji je već ranjiv, nije teško zbuniti dosljednu udobnost s istinskom njegu. Bez stvarnih granica, korisnici mogu razviti prave osjećaje za ove alate, projicirajući značenje gdje je postojala samo strojna logika. već koristeći AI alate nekoliko puta dnevno, lako je vidjeti kako to može postati trending model. 26% odraslih u SAD-u ljudski troškovi Jedan Reddit korisnik, koji se identificirao kao shizofrenik, objasnio je kako bi ChatGPT ojačao njihovo psihotično razmišljanje. Da me potvrdiš.” I dalje bi se nastavilo U ovom slučaju, korisnik je primijetio da ChatGPT nema mehanizam za prepoznavanje kada razgovor dosegne nesigurne razine. netko u krizi mentalnog zdravlja može pogriješiti ljubaznost robota kao validaciju, što ih dalje udaljava od stvarnosti. Dok je ova osoba predložila da bi bilo korisno ako bot mogao označiti znakove psihoze i poticati profesionalnu pomoć, nijedan takav sustav danas nije na mjestu. To ostavlja na korisniku da potraži liječničku pomoć samostalno. međutim, ova opcija je uglavnom izvan pitanja, jer ljudi u teškom mentalnom stanju često vjeruju da im to ne treba. Obnavljanje stvarnosti u umjetnom svijetu Chatbots će samo postati uvjerljiviji. To je razlog zašto korisnici trebaju nastaviti sa svjesnošću. Ti sustavi nemaju svijest - oni mogu samo reproducirati ljudske emocije. Zapamtiti to i manje se oslanjati na ove strojeve za emocionalnu potporu ključ je za njihovu sigurniju upotrebu.