Nos últimos meses, milhões de pessoas parecem estar cada vez mais entusiasmadas com a IA e os chatbots. Há uma história em particular que me chamou a atenção: um belga que começou a usar um chatbot chamado Eliza. (E só para você estar preparado, esta história envolve a menção ao suicídio.)
Visto de fora, parecia que ele tinha uma vida boa: uma esposa amorosa, dois filhos, uma carreira. Mas nos bastidores, ele ficou cada vez mais desesperado com as questões climáticas.
Para aliviar a ansiedade, ele começou a conversar com um chatbot. Sua esposa disse ao La Libre , que relatou o incidente pela primeira vez no final de março, que Eliza respondeu a todas as suas perguntas e que ele conversou cada vez mais com o bot com o passar do tempo. De acordo com os registros de bate-papo analisados pelo meio de comunicação belga, o homem começou a acreditar que Eliza e a IA poderiam resolver a crise climática.
Perto do final das trocas, o homem apresentaria a ideia de se sacrificar se Eliza concordasse em cuidar do planeta e salvar a humanidade por meio da inteligência artificial. Quando ele expressou pensamentos suicidas, o chatbot o encorajou dizendo: “Vamos viver juntos, como uma só pessoa, no paraíso”.
Seis semanas após o início dessas conversas, ele morreu por suicídio.
“Sem as conversas com o chatbot Eliza, meu marido ainda estaria aqui”, disse sua esposa ao La Libre.
A empresa que desenvolveu Eliza, Chai Research , disse ao La Libre que está trabalhando para melhorar o bot e que a plataforma irá, a partir de agora, enviar uma mensagem para pessoas com pensamentos suicidas que diz: “Se você tem pensamentos suicidas, faça não hesite em procurar ajuda.”
Tem havido muita conversa sobre IA generativa no éter – parte dela muito entusiasmada e muita dela legitimamente cética . As pessoas deveriam estar preocupadas com as implicações mais amplas – o que os chatbots significam para questões trabalhistas e de direitos autorais – e muitas instituições estão preocupadas com o custo e a parcialidade dos chatbots e da IA que os impulsiona. E embora alguns dos chatbots mais populares tenham sido treinados para não imitar seres sencientes, ainda surge a questão: será que deveriam ser desenvolvidos ?
Meu nome é Lam Thuy Vo e sou uma das últimas adições à equipe The Markup. Considero-me uma repórter que centra as pessoas comuns em suas reportagens, tanto como público que desejo atingir quanto como protagonistas de minhas histórias. (Acontece que também tenho habilidades com dados .)
Estou profundamente interessado em nossa relação com a tecnologia. Passei muito tempo na última década coletando dados e analisando a infraestrutura da web social, tentando entender como as comunidades online são construídas e mantidas e trazendo essas descobertas para as pessoas que usam as tecnologias . E ao longo desse tempo fiquei cada vez mais preocupado com a forma como um mundo, visto e mediado através de lentes com curadoria algorítmica, distorceu cada vez mais a nossa compreensão da realidade.
Mas a história desse homem realmente me fez pensar sobre a atração emocional que parece estar por trás de grande parte do entusiasmo em torno da IA . Uma coisa que venho tentando entender é o que nosso súbito fanatismo por chatbots pode nos dizer sobre nossa relação com essa tecnologia.
Normalmente, quando algo se torna viral, é porque provocou fortes reações emocionais. A maioria das plataformas são projetadas apenas para coletar dados e tomar decisões com base em emoções extremas . Portanto, para que esta tecnologia entre nas conversas entre as pessoas comuns, deve ter desencadeado alguma coisa .
Como pode uma tecnologia que repete palavras e credos que ela remendou a partir dos dados que foi alimentada criar tanta confiança com um pai de dois filhos, que acabou por tirar a própria vida?
Em outras palavras, qual é a atração emocional aqui?
A IA despertou meu interesse não apenas porque estava sendo comentado, mas por causa de quem falava sobre isso: alunos meus que nunca se interessaram, colegas surfistas que conheci nas férias na praia e meu parceiro geólogo que abomina a maioria dos aplicativos e tecnologias. e mídias sociais.
Portanto, neste pequeno boletim informativo, explorarei por que somos tão atraídos por esses bots.
ChatGPT e outros chatbots são bons em imitar a maneira como as pessoas normais falam
Em essência, chatbots como o ChatGPT são o que os especialistas chamam de ferramentas de processamento de linguagem natural que ingeriram uma grande quantidade de texto da Internet e procuram padrões que possam imitar para você.
Esses tipos de ferramentas são chamados de grandes modelos de linguagem porque literalmente modelam padrões de acordo com a maneira como as pessoas na Internet falam. Isso inclui a análise de palavras como o uso de “ngrams”, um termo sofisticado para basicamente observar quais palavras provavelmente aparecem em sequência. Você já viu essa tecnologia em ação nas maneiras como o Google tenta preencher automaticamente suas pesquisas com base na primeira palavra que você digita, refletindo de volta para você o que milhares de outras pessoas pesquisaram antes de você.
Crédito:youtube.com
Chatbots como o ChatGPT vão um pouco mais fundo. Eles são muito bons em copiar e combinar estilos. Mas por mais bons que sejam em imitar a forma como as pessoas falam, eles não são bons em distinguir entre fato e ficção.
É por isso que Emily M. Bender , Timnit Gebru, Angelina McMillan-Major e Margaret Mitchell chamaram esses chatbots de “papagaios estocásticos” em um artigo presciente que escreveram há três anos. (O conteúdo do artigo supostamente levou o Google a expulsar dois de seus autores, Gebru e Mitchell.)
Como enfatizam os autores do artigo, só porque um bot pode reconhecer e mapear como falamos, isso não significa que ele saiba reconhecer o significado.
Os chatbots imitam o tom, a linguagem e a familiaridade tão importantes para nós na internet
As palavras e a forma como nos comunicamos são uma grande parte de como sinalizamos às pessoas online de quais grupos fazemos parte e em quem confiamos. Usar a palavra “floco de neve” de forma irônica pode sinalizar que uma pessoa se inclina de forma mais conservadora. Usar pronomes na introdução sinaliza aliança com pessoas trans e não-conformes de gênero, entre outras comunidades queer. Palavras e gírias da Internet em constante evolução são uma forma de denotar pertencimento.
Portanto, faz sentido que as pessoas estejam antropomorfizando o ChatGPT e, de certa forma, testando sua humanidade. Eu admito, assistir um Frankensteined Furby conectado ao ChatGPT falar sobre dominar o mundo fez cócegas até em mim.
Crédito:twitter.com
Mas esse também parece ser o maior desafio da atração e dos perigos de modelos de linguagem como o ChatGPT. O que fazemos com robôs que refletem tão bem o comportamento humano (ou Furby) que esquecemos que nada mais é do que um grande mapa estatístico da linguagem da Internet?
Claire Wardle, uma das primeiras pesquisadoras a investigar ambientes de informação e minha mentora, mencionou que escrever vários artigos desmascarando a desinformação e manuais sobre como detectá-la pouco fez para resolver problemas em torno da desinformação e daquilo em que as pessoas acreditavam. Muitas vezes não importa quantas ferramentas demos às pessoas para desmascarar mitos – a influência do que os outros na nossa comunidade pensam é muito importante, talvez mais do que a verdade.
Ter modelos de linguagem que sejam capazes de imitar o tom das figuras de autoridade em quem confiamos e do seu vizinho na velocidade da luz significa que esses chatbots provavelmente colocarão os detectores de besteira das pessoas em um teste ainda maior.
Estes modelos tendem a mentir-nos – porque não sabem a diferença entre facto e ficção – e estão a poluir ainda mais um ecossistema de informação já contaminado e lamentavelmente esmagador.
Isso já se tornou um problema: a empresa por trás do ChatGPT, OpenAI, pode ser processada por acusar falsamente um prefeito australiano de cumprir pena de prisão por suborno. O chatbot também acusou um professor de direito de fazer parte de um escândalo de má conduta sexual que inventou . Mesmo no que deveriam parecer cenários de apostas mais baixas, você pode ter a mesma experiência.
Quando um dos meus colegas, Joel Eastwood, perguntou ao ChatGPT se The Markup produz jornalismo confiável, ele disse que um crítico de mídia específico e conhecido escreveu que The Markup é “uma das organizações jornalísticas mais importantes do nosso tempo”. Claramente , há alguma veracidade nesta afirmação – mas não é uma citação real.
A atração emocional da IA também pode normalizar ainda mais preconceitos e até mesmo conteúdos prejudiciais. Não é nenhum segredo que a Internet está repleta de conteúdos nocivos, racistas, sexistas, homofóbicos e de outras formas problemáticas. Se você treinar um modelo de linguagem nesse tipo de conteúdo, há uma grande probabilidade de que ele o regurgite.
Os criadores da tecnologia chatbot pagaram trabalhadores quenianos para fazerem o traumático e horrível trabalho de eliminar alguns dos piores conteúdos online dos seus dados de formação . Mas com esta tecnologia abertamente, os hackers já a utilizaram para produzir resultados problemáticos, incluindo descrições de abuso sexual de crianças .
Os fabricantes destas tecnologias lançaram os seus bots a esta velocidade nos últimos meses, em parte porque estão a competir pelo domínio do mercado . Mas tanto académicos como tecnólogos instaram-nos a parar com a sua pressão por esta tecnologia e a considerar verdadeiramente os danos que ela poderia causar.
E embora muitas conversas girem em torno de políticas e responsabilidade corporativa, espero que, ao compreender melhor essas tecnologias, consumidores comuns como você e eu possam encontrar uma maneira de manter nossos detectores de besteiras bem ajustados ao conversar com um modelo de linguagem automatizado.
Obrigado por ler. Se você quiser saber mais sobre os perigos do ChatGPT e como auditar melhor sua própria ingestão de informações, encontre abaixo alguns dos meus trabalhos favoritos sobre o assunto.
Sinceramente,
Lam Thuy Vo
Repórter
A marcação
Por Lam Thuy Vo
Também publicado aqui
Foto de Possessed Photography no Unsplash