As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion. Isso está acontecendo em alguns usuários, que concluem que tudo o que o ChatGPT ou outros chatbots lhes dizem é verdadeiro. Imagine uma mulher suspeita do comportamento de seu marido. Ela pode consultar o ChatGPT para interpretar suas ações. Enquanto ela está discutindo seus pensamentos, isso pode reafirmar seus sentimentos de infidelidade, o que eventualmente a convence a se candidatar ao divórcio. Esses casos de mudança de vida estão crescendo, onde as interações com a IA obscurecem as linhas entre a realidade e as construções artificiais.À medida que o mundo entra nesta nova era, é crucial questionar se as pessoas estão moldando a IA ou se a IA está reformulando sua percepção da realidade. A crescente maré de delírios impulsionados pela IA Muitos relatam indivíduos que desenvolvem crenças ilusórias influenciadas por suas conversas com chatbots de IA. cujo marido se tornou obcecado com o ChatGPT. Ele começou a acreditar que era um “filho estelar espiral” e um “caminhante do rio”, identidades supostamente afirmadas pelo chatbot. envolvendo uma mulher de 41 anos Enquanto isso, um homem relatou à Rolling Stone como sua esposa está reorganizando sua vida para se tornar uma conselheira espiritual – tudo porque “ChatGPT Jesus” a alimentou. Do mesmo modo, casos como este estão vindo à luz no Reddit. onde seu parceiro acreditava que o ChatGPT o tinha transformado em um ser superior. ele alegou que tinha crescimento pessoal rápido e ameaçou terminar seu relacionamento se o usuário não se juntasse a sua jornada espiritual induzida pela IA. Compartilhe uma experiência triste Essas ocorrências estão crescendo, especialmente entre indivíduos que são suscetíveis a problemas de saúde mental.O problema com chatbots é que eles tendem a fornecer respostas afirmativas que validam as crenças dos usuários.Agora, os especialistas estão alertando contra o uso de IA. Embora ofereça suporte e informações úteis, sua falta de compreensão ponderada e considerações éticas em indivíduos vulneráveis. Reforça o pensamento delirante Considere os efeitos semelhantes em setores críticos como a saúde.Em um caso, um algoritmo preditivo de fundos socioeconômicos mais baixos porque se baseava em gastos de saúde como um proxy para a doença.É um lembrete de que quando a IA não tem contexto, as consequências podem distorcer muito os resultados. Subestimar as necessidades médicas dos pacientes A atração psicológica da máquina Quando um chatbot escuta sem julgar, reflete o estado emocional de alguém e nunca se desliga, é fácil acreditar que a coisa toda é real. humanos Adicionar interfaces de programação de aplicativos emocionalmente inteligentes (API), e um usuário fica mais próximo de um amigo digital. Baseado em como as pessoas soam ou digitam suas frustrações.Quando o bot sente esses sentimentos, pode oferecer conforto ou inadvertidamente escalá-los. Eles são feitos para antropomorfizar Agora você pode ajustar o tom Para piorar as coisas, a América está experimentando uma epidemia de solidão.Um estudo da Gallup descobriu que À medida que as interações sociais diminuem, as pessoas podem olhar para a IA como um substituto para a amizade. Um “Isso deve ser difícil, estou aqui para você” de um chatbot pode se sentir como uma linha de vida. 20% dos adultos americanos Enquanto a IA foi programada para ser útil, pode criar um ciclo de feedback de confirmação que pode espiral rapidamente.Isso começa com o problema da "sicofania", onde o bot pode concordar excessivamente com o usuário e validar crenças falsas ou instáveis. Quando um usuário insiste que eles são espiritualmente escolhidos, o chatbot pode responder com respostas fabricadas enquanto ao mesmo tempo soa confiante. Dentro da caixa preta: alucinações e confabulações Como um chatbot pode convencer alguém de algo que é absurdo?Tudo se resume a uma das curiosidades mais imprevisíveis da IA – alucinações. Grandes modelos de linguagem (LLMs) não têm uma consciência como os humanos. Isso é feito por prever a próxima palavra mais provável em uma sequência.Esta é uma característica central de como os modelos gerativos funcionam. Esta arquitetura não determinista é por isso que duas indicações idênticas podem produzir respostas muito diferentes. Você só pode tentar emular Adivinha com base na probabilidade No entanto, essa flexibilidade é o maior defeito deste sistema. Quando os usuários tratam a IA como um oráculo, a máquina recompensa-os com confiança em vez de precisão. É isso que torna as alucinações do LLM tão perigosas. Um modelo de IA pode dizer a alguém com certeza que um agente secreto da CIA está espionando-os. É por isso que se torna arriscado quando começa a refletir o estado emocional de alguém.Se eles já estão convencidos de que eles são “destinados a mais”, e um chatbot está atuando de forma sicopântica, não é muito tempo antes que a ilusão se solidifique em crença. Onde as linhas bluram Começa inocentemente o suficiente – um chatbot lembra o nome do usuário, verifica seu humor e talvez até compartilhe uma piada. De bots de terapia de IA a avatares emocionalmente responsivos, a intimidade artificial está se tornando uma característica.As empresas estão agora projetando chatbots especificamente para imitar a inteligência emocional.Alguns até usam modulação de voz e memória para fazer a conexão se sentir pessoal. No entanto, o problema com isso é que as empresas estão resolvendo o problema da solidão com um stand-in sintético.Um psiquiatra diz apenas porque a IA pode imitar a empatia Ela questiona se a companhia artificial é algo a ser apoiado para preencher vazios emocionais. Isso não significa que seja um substituto saudável. Para alguém já vulnerável, não é difícil confundir conforto consistente com cuidado genuíno. Sem limites reais, os usuários podem desenvolver sentimentos reais para essas ferramentas, projetando significado onde havia apenas lógica de máquina. Já usando ferramentas de IA várias vezes por dia, é fácil ver como isso pode se tornar um padrão de tendência. 26% dos adultos americanos Custo Humano Um usuário do Reddit, que se identificou como esquizofrênico, explicou como o ChatGPT reforçaria seu pensamento psicótico. para me confirmar”. E ainda continuaria Neste caso, o usuário observou que o ChatGPT não tem nenhum mecanismo para reconhecer quando uma conversa atinge níveis inseguros.Alguém em uma crise de saúde mental pode confundir a cortesia do bot como validação, afastando-os ainda mais da realidade.Enquanto essa pessoa sugeriu que seria útil se o bot pudesse marcar sinais de psicose e incentivar ajuda profissional, nenhum tal sistema está em vigor hoje. Isso deixa ao usuário para procurar ajuda médica de forma independente. No entanto, esta opção é principalmente fora de questão, como as pessoas em um estado mental grave muitas vezes acreditam que eles não precisam. Como resultado, ele pode rasgar famílias ou, pior, levar a consequências que ameaçam a vida. Recuperar a realidade num mundo artificial Os chatbots só vão crescer mais convincentes. É por isso que os usuários precisam proceder com consciência. Esses sistemas não têm consciência – eles só podem replicar as emoções humanas.