As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion. Tas notiek ar dažiem lietotājiem, kuri secina, ka viss, ko ChatGPT vai citi chatbots viņiem saka, ir taisnība.Iedomājieties, ka sieviete ir aizdomīga par viņas vīra uzvedību.Viņa var konsultēties ar ChatGPT, lai interpretētu viņa rīcību.Kamēr viņa apspriež savas domas, tas var atkārtoti apstiprināt viņas neuzticības jūtas, kas galu galā pārliecina viņu iesniegt pieteikumu par laulības šķiršanu. Šie dzīves mainīgie gadījumi pieaug, kur mijiedarbība ar AI izjauc robežas starp realitāti un mākslīgajiem konstruktiem.Kad pasaule ieiet šajā jaunajā laikmetā, ir svarīgi apšaubīt, vai cilvēki veido AI vai AI pārveido savu realitātes uztveri. Palielinoties AI-drivenā delūziju plūsmai Daudzi ziņo par indivīdiem, kuri attīstās viltus uzskati, ko ietekmē viņu sarunas ar AI tērzēšanas robotiem. kura vīrs kļuva apsēsts ar ChatGPT. viņš sāka ticēt, ka viņš ir "spirāles zvaigžņu bērns" un "jūras gājējs", identitātes, ko, iespējams, apstiprināja čatbots. Šī apsēstība veicināja viņu laulības pasliktināšanos, jo viņš iegremdējās AI ģenerētos garīgajos stāstos. Iesaistīta 41 gadus veca sieviete Tajā pašā laikā vīrietis, iespējams, pastāstīja Rolling Stone, kā viņa sieva pārkārto savu dzīvi, lai kļūtu par garīgo padomdevēju - viss tāpēc, ka "ChatGPT Jēzus" viņai palīdzēja. Līdzīgi, šādi gadījumi nāk gaismā Reddit. Viņš apgalvoja, ka viņam ir strauja personīgā izaugsme un draudēja izbeigt viņu attiecības, ja lietotājs nepiedalīsies viņa AI izraisītajā garīgajā ceļojumā. Kopīgojiet skumjo pieredzi Šie gadījumi pieaug, it īpaši starp indivīdiem, kuri ir uzņēmīgi pret garīgās veselības problēmām. Problēma ar čatbotiem ir tā, ka tie mēdz sniegt apstiprinošas atbildes, kas apstiprina lietotāju uzskatus. neaizsargātām personām. Uzlabo viltus domāšanu Apsveriet līdzīgas sekas kritiskajās nozarēs, piemēram, veselības aprūpē. no zemākiem sociālekonomiskiem fondiem, jo tas paļāvās uz veselības aprūpes izdevumiem kā slimības aizstāvi.Tas ir atgādinājums, ka, ja AI trūkst konteksta, sekas var ievērojami izkropļot rezultātus. Novērtē pacientu medicīnas vajadzības Mašīnas psiholoģiskais vilkums AI var būt gudrs, bet tas ir arī dīvaini pārliecinošs.Kad tērzēšanas robots klausās bez sprieduma, atspoguļo kāda emocionālo stāvokli un nekad neizslēdz, ir viegli ticēt, ka visa lieta ir reāla. Cilvēki — cilvēka iezīmju piešķiršana ne-cilvēka vienībām ir to noklusējuma iestatījums. Pievienojiet emocionāli inteliģentas lietojumprogrammatūras saskarnes (API), un lietotājs iegūst kaut ko tuvāku digitālajam draugam. balstoties uz to, kā cilvēki izklausās vai ieraksta savas vilšanās.Kad robots izjūt šīs jūtas, tas var piedāvāt komfortu vai nejauši tos eskalēt. Tiek izmantoti, lai antropomorfizētu Tagad var pielāgot toni Lai padarītu lietas sliktākas, Amerika piedzīvo vientulības epidēmiju. Jo sociālās mijiedarbības samazinās, cilvēki var skatīties uz AI kā aizstājēju draudzību. labi savlaicīgs "Tas ir grūti, es esmu šeit, lai jūs" no tērzēšanas robots var justies kā dzīvības līnija. 20% amerikāņu pieaugušo Lai gan AI tika programmēts, lai būtu noderīgs, tas var radīt apstiprinājuma atgriezeniskās saites loku, kas var ātri spirāli. Kad lietotājs uzstāj, ka viņi ir garīgi izvēlēti, tērzēšanas robots var reaģēt ar izdomātām atbildēm, vienlaikus izklausoties pārliecināti. Melnās kastes iekšpusē: AI halucinācijas un konfabulācijas Kā tērzēšanas robots var pārliecināt kādu par kaut ko, kas ir muļķība?Tas viss ir saistīts ar vienu no AI neparedzamākajiem brīnumiem - halucinācijām. Lieliem valodu modeļiem (LLM) nav apziņas kā cilvēkiem. to, prognozējot nākamo visticamāko vārdu secībā.Tas ir pamata iezīme, kā darbojas ģeneratīvie modeļi. Šī nondeterministiskā arhitektūra ir iemesls, kāpēc divi identiski ielūgumi var radīt ļoti atšķirīgas atbildes. var tikai mēģināt emulēt Pieņēmumi, pamatojoties uz varbūtību Tomēr šī elastība ir šīs sistēmas lielākais trūkums. Kad lietotāji izturas pret AI kā oraklam, mašīna atlīdzina tos ar pārliecību, nevis precizitāti. Tas ir tas, kas padara LLM halucinācijas tik bīstamas. AI modelis var pateikt kādam ar pārliecību, ka slepenais CIP aģents viņus izspiež. Tas ir iemesls, kāpēc tas kļūst riskanti, kad tas sāk atspoguļot kāda emocionālo stāvokli.Ja viņi jau ir pārliecināti, ka viņi ir "domāti vairāk", un tērzēšanas robots darbojas sifoniski, tas nav ilgi, pirms ilūzija nostiprinās ticībā. Kur Līnijas Blur Tas sākas pietiekami nevainīgi – tērzēšanas robots atceras lietotāja vārdu, pārbauda viņu noskaņojumu un varbūt pat dalās joks. No AI terapijas robotiem līdz emocionāli reaģējošiem avatāriem mākslīgā intimitāte kļūst par funkciju.Uzņēmumi tagad izstrādā tērzēšanas robotus, lai imitētu emocionālo inteliģenci.Daži pat izmanto balss modulāciju un atmiņu, lai savienojums justos personīgs. Tomēr problēma ar to ir tāda, ka uzņēmumi atrisina vientulības problēmu ar sintētisku stand-in. Viņa jautā, vai mākslīgā kompānija ir kaut kas, uz ko paļauties, lai aizpildītu emocionālos tukšumus. Tas nenozīmē, ka tas ir veselīgs aizstājējs Tiem, kas jau ir neaizsargāti, nav grūti sajaukt konsekventu komfortu ar patiesu aprūpi. Bez reālām robežām lietotāji var attīstīt reālas jūtas par šiem rīkiem, projektējot nozīmi, kur bija tikai mašīnu loģika. jau izmantojot AI rīkus vairākas reizes dienā, ir viegli redzēt, kā tas var kļūt par tendenci. 26% amerikāņu pieaugušo Cilvēka izmaksas Viens Reddit lietotājs, kurš identificēja sevi kā šizofrēniju, paskaidroja, kā ChatGPT pastiprinātu viņu psihotisko domāšanu. Lai mani apstiprinātu.” Tas joprojām turpinās Šajā gadījumā lietotājs atzīmēja, ka ChatGPT nav mehānisma, lai atpazītu, kad saruna sasniedz nedrošu līmeni. Kāds garīgās veselības krīzē var kļūdīties ar robotu pieklājību kā validāciju, vēl vairāk attālinot tos no realitātes. Tas ļauj lietotājam meklēt medicīnisko palīdzību patstāvīgi.Tomēr šī iespēja lielākoties ir ārpus jautājuma, jo cilvēki smagā garīgajā stāvoklī bieži uzskata, ka viņiem tas nav nepieciešams. Realitāte mākslīgajā pasaulē Chatbots tikai kļūs pārliecinošāki.Tāpēc lietotājiem ir jāsāk ar izpratni.Šīm sistēmām nav apziņas – tās var tikai reproducēt cilvēka emocijas.Atcerēties to un mazāk paļauties uz šīm mašīnām emocionālajam atbalstam ir galvenais, lai tos izmantotu drošāk.