Em 2017, um robô cansou-se do seu trabalho e suicidou-se num bebedouro . Então, em 2022, um engenheiro do Google declarou , após interagir com o LaMDA, o chatbot da empresa, que a tecnologia havia se tornado consciente. Recentemente, foi relatado que em 2021, um engenheiro de software da Tesla foi atacado por um robô não controlado. Isto sem considerar o medo de que as máquinas roubem empregos, ou a ficção clássica de que as máquinas dominarão o mundo.
Embora não vejamos as máquinas como replicantes em Blade Runner, as pessoas estão predispostas a antropomorfizar ou atribuir qualidades humanas a não-humanos [1]. É uma forma de podermos analisar um cenário e trazê-lo para a nossa compreensão: damos nomes aos nossos barcos e tornados, conversamos com os nossos animais de estimação e dizemos que a sensação agradável que eles nos proporcionam é amor. É mais fácil entender um sistema que declara na primeira pessoa “me desculpe, não sei como ajudá-lo” do que aceitar que o modelo com o qual estamos falando pode não ser nada mais do que um papagaio estocástico. [2]
A interação antropomorfizada, portanto, relaciona-se com o fenômeno da “ilusão de agência”, conceito psicológico que se refere à tendência de atribuir ação autônoma ou controle a entidades que, na realidade, não possuem tais capacidades. Em outras palavras, é a percepção equivocada de que um agente (seja uma pessoa, um animal ou uma máquina) está agindo por vontade própria, quando na verdade suas ações estão sendo determinadas por fatores externos (no caso computacional, desenvolvimento regras).
Em situações em que os sistemas de IA tomam decisões ou acções erradas, há uma tendência para ver estes erros como "escolhas" da entidade, em vez de resultados da sua programação e concepção por seres humanos, até porque foi relatado que o preconceito egoísta de um humano que leva alguém a ver a causa e a responsabilidade por um resultado negativo como não atribuível a si mesmo pode ser observado mesmo em interações homem-máquina [3].
Esta mudança de percepção está perigosamente inclinada a absolver os criadores, operadores e reguladores humanos da sua responsabilidade, não por uma questão de regulação judicial (que continua a ser uma lacuna e tem desafios na sua realização não só pela complexidade do assunto, mas porque Muitas vezes a inteligência é entendida apenas como aprendizado de máquina e a premissa não está devidamente estruturada (Precisamos de uma regulamentação mais rigorosa? Precisamos correr mais riscos?), mas sim numa questão técnico-ética.
Vejamos um evento mais extremo, mas verdadeiro, de 2023: um usuário que estava sentimentalmente apegado a um chatbot cometeu suicídio após compartilhar seus pensamentos com o bot e receber a resposta “transforme suas palavras em ações”, bem como outras mensagens. Uma condenação judicial dos desenvolvedores deste produto faria com que outro usuário se comportasse da mesma forma com outro chatbot, supondo que este tenha sido desativado, se o conteúdo das mensagens e o carinho forem os mesmos? Não é apenas uma situação jurídica. É uma questão de educação social, psicológica e tecnológica.
O conceito de humanização da IA é ambíguo e um desafio significativo reside na ausência de uma abordagem universalmente aceite que dite as melhores práticas para conceber e utilizar a IA. Embora uma interface que imite o comportamento humano possa ser mais acessível, não há limites claros que definam o que deve ou não ser feito em um produto. Em última análise, a rejeição do utilizador torna-se o único factor limitante, embora potenciais danos possam manifestar-se antes que a interface se torne demasiado desconhecida.
Uma interface amigável é uma redução na complexidade do sistema que opera por trás dela. Mas enquanto não houver educação sobre como os sistemas funcionam, o utilizador não será capaz de pensar criticamente sobre o que utiliza. Isso não significa que todos devam se tornar programadores, mas pelo menos entender que o resultado na tela vem de um caminho de coleta de dados, desenvolvimento de modelos e design. Há um conjunto de regras em vigor. Como a humanização é um ato quase inconsciente por parte de nós, usuários, vamos pelo menos limitá-la com um pouco de conhecimento.
E não é fácil evitar o antropomorfismo ao comunicar sobre IA, especialmente considerando a linguagem padrão da indústria, da mídia e da própria vida cotidiana: aprendizado de máquina, visão computacional, modelagem generativa. As percepções da Inteligência Artificial podem ser influenciadas pelo uso específico da linguagem.
A forma como a IA é apresentada tem “impactos concretos”, particularmente na forma como as pessoas distribuem responsabilidades e reconhecimento pelo trabalho realizado. Quando descrito meramente como uma ferramenta nas mãos de humanos, tende a atribuir maior responsabilidade e mérito a certos indivíduos – como a pessoa que opera o código. Por outro lado, se a IA for caracterizada por características humanas – como a capacidade de criar – então é vista como merecedora de maior crédito e responsabilidade, como um agente com pensamento independente e capacidade mental. [4] Quando lemos notícias sobre incidentes ou eventos atípicos envolvendo Inteligência Artificial, frequentemente nos deparamos com esses termos.
Além disso, a atribuição de “inteligência” significa que mais culpa ou crédito pelo resultado de uma tarefa foi atribuído a um robô com comportamento autónomo do que a um robô não autónomo, mesmo que o comportamento autónomo não tenha contribuído diretamente para a tarefa. [3] Estes estudos sugerem, portanto, que os humanos podem atribuir responsabilidade a um computador ou robô com base nas capacidades mentais antropomorfizadas das máquinas.
A humanização das máquinas não só altera a distinção entre a responsabilidade do dispositivo e a do seu criador humano, mas a atribuição de intenções ou consciência a uma máquina, ao mesmo tempo, confunde os limites do que constitui a verdadeira autonomia e consciência.
Contudo, a dificuldade em atribuir humanidade e senciência a uma máquina não reside apenas no facto de a Inteligência Artificial não ser capaz de o ter e quando diz, por exemplo, que sente medo, está na verdade emulando o que aprendeu, repetindo essa frase sem qualquer tipo de essência por trás dela. Ainda hoje, há um debate acalorado sobre como definir a consciência. Nossa consciência, como humanos.
Nossa compreensão de como o cérebro funciona ainda é bastante limitada. Temos um conhecimento considerável sobre a química fundamental: a forma como os neurônios são ativados e a transmissão de sinais químicos. Também temos uma boa compreensão das principais funções de diversas áreas do cérebro. Contudo, temos muito pouco conhecimento sobre como essas funções nos orquestram. Até certo ponto, a especulação teórica suplantou estudos neurofisiológicos detalhados sobre o que acontece no cérebro. Mas e além disso? [5] Por que temos essa noção mágica de nós mesmos? Por que a mesma experiência nos afeta de maneira diferente? O mesmo sentimento é sentido da mesma forma por todos nós?
Se ser humano é algo que, apesar de vivenciarmos, ainda não temos uma compreensão completa do que é como um todo, como podemos dizer que uma máquina também vivencia essa complexidade? Ao elevar as máquinas às capacidades humanas, diminuímos o carácter especial das pessoas.
Para o Prêmio Jabuti 2023, uma das maiores homenagens da literatura brasileira, a Câmara Brasileira do Livro (CBL) decidiu desclassificar Frankenstein, edição do clássico de 1818, da categoria Melhor Ilustração, já que o artista relatou ter utilizado soluções de IA para desenvolver a arte. Ironicamente, um dos livros reconhecidos pelo Prêmio na categoria Não Ficção trata do impacto da Inteligência Artificial no ser humano (“Humanamente digital: Inteligência artificial centrada no humano”, algo como “Humanly Digital: Human-Centered Artificial Intelligence” em inglês, de Cassio Pantaleone). Por um lado, reconhecemos o entrelaçamento da experiência humana com as máquinas. Por outro lado, ainda não conseguimos validar se um algoritmo utilizado como ferramenta artística pode ser considerado um método válido de criação ou não, ainda que o processo artístico, mesmo que realizado por machine learning, exija a ação ( e apreciação da beleza e estética) de um ser humano.
As máquinas não roubam empregos se não forem usadas indiscriminadamente para isso. Máquinas não matam a menos que sejam usadas como armas. As máquinas também não sofrem nem têm empatia, embora os seus textos imitem isso, pois foram treinados com dados nossos, carregados de sentimentos que só nós podemos sentir verdadeiramente. Eles são quase a versão moderna do mito do Golem. Como os humanos podem se relacionar com a inteligência não humana? O antropomorfismo é uma resposta válida, mas não a única. E quando é utilizado, não pode nos exonerar da real responsabilidade pelas suas consequências, sejam elas adequadas ou não: nós.
A Inteligência Artificial é, no final das contas, um espelho de nós mesmos. E se temos medo de onde isso vai dar, na verdade é porque temos medo do caminho que vamos criar.
[1] Epley, N., Waytz, A. e Cacioppo, JT (2007). Ao ver o ser humano: uma teoria de três fatores do antropomorfismo. Revisão Psicológica, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864
[2] Shneiderman, B. e Muller, M. (2023). Sobre antropomorfismo de IA
[3] Kawai, Y., Miyake, T., Park, J. et al. Atribuições causais e de responsabilidade baseadas no antropomorfismo aos robôs. Sci Rep 13, 12234 (2023). https://doi.org/10.1038/s41598-023-39435-5
[4] Epstein, Z., Levine, S., Rand, DG e Rahwan, I. (2020). Quem recebe crédito pela arte gerada por IA? Em iScience (Vol. 23, Edição 9, p. 101515). Elsevier BV. https://doi.org/10.1016/j.isci.2020.101515
[5] Goff, P. (2023). Compreender a consciência vai além da exploração da química cerebral. Americano científico
O seguinte prompt gerou a imagem usada neste artigo: “Crie um homem se olhando no espelho, mas o espelho tem o formato de um robô”. Sofia × DALL·E