“Aterrorizante” é uma palavra frequentemente usada atualmente por tecnólogos e governos ao discutir o futuro da inteligência artificial (IA) e seu potencial impacto na humanidade.
Eles pintam uma imagem de um futuro em que a IA roubou empregos, resultou em mais desigualdade e classificou injustamente nossos alunos com algoritmos defeituosos.
“Já era hora” foi a resposta dos especialistas em política e ética da IA às notícias há vários meses, quando a agência de consultoria em ciência e tecnologia da Casa Branca divulgou uma Declaração de Direitos da IA.
O documento é a visão do presidente Biden de como o governo dos EUA, as empresas de tecnologia e os cidadãos devem trabalhar juntos para responsabilizar a IA e o setor de IA no futuro.
Embora devamos considerar e planejar o dano potencial que a IA pode causar, alguns argumentam que a discussão não deve parar por aí.
À medida que a IA se torna mais avançada a ponto de se tornar consciente, até mesmo autônoma, em que ponto há uma exigência moral de pelo menos considerar a extensão dos direitos humanos para a IA?
Talvez seja uma ideia boba. De fato, questões como essa pertencem ao reino da filosofia, mas podem se tornar questões de política pública no futuro.
Recentemente, terminei de ler Klara and the Sun, de Kazuo Ishiguro, um romance futurista sobre uma mãe que compra um “amigo artificial” (AF) altamente inteligente para sua filha com doença terminal, Josie.
O livro se passa muitos anos no futuro, onde descobrimos que a IA teve um impacto existencial negativo nos humanos. No novo mundo, as crianças são geneticamente modificadas no nascimento para competir com a IA, resultando em algumas delas desenvolvendo doenças críticas e inexplicáveis.
Klara, a AF, parece ser uma entidade pensante e consciente com a capacidade de aprender e sentir emoções. Na minha opinião, um dos temas principais do livro é a questão de saber se a IA pode aprender a amar, por conta própria, sem programação.
Ao longo do texto, o leitor desenvolve um apego a Klara por causa de sua profunda preocupação com a saúde e o bem-estar de Josie. No final, cabe a cada leitor determinar se Klara ama Josie ou se está simplesmente cumprindo o objetivo de sua programação. É difícil discernir.
Josie teve uma recuperação milagrosa e continuou vivendo sua vida. No entanto, Klara é descartada e aguarda seu destino em um ferro-velho junto com outros AFs abandonados. No final do romance, somos apresentados a uma imagem de Klara olhando para o sol, relembrando seu tempo com Josie e as boas lembranças que ela criou com ela.
A imagem é assustadora por causa do aparente amor que o AF tem por Josie; Klara desenvolveu um profundo interesse e conexão com a adolescente, colocando os interesses de Josie acima dos seus.
O uso e abuso de Klara ao longo do romance, penso eu, levanta a questão filosófica sobre se os direitos humanos para IA precisarão ser considerados no futuro, resultando em sérias questões éticas e filosóficas sobre o que significa ser humano.
À medida que a tecnologia de IA se torna cada vez mais sofisticada, muitos especialistas esperam que a inteligência da IA um dia rivalize com a nossa. Embora existam poucas discussões sobre o tema, a robótica forçada a servir os humanos pode ser considerada uma nova forma de escravidão. Robôs como Klara podem ser usados como um meio para um fim (amizade temporária, por exemplo) e descartados.
Os oponentes desse debate podem argumentar que a diferença entre um escravo humano e um escravo robô é o desejo ou abertura para servir. E outros podem argumentar que usar, abusar ou descartar a IA tem pouco impacto nas pessoas e no tecido da sociedade, mas onde traçamos a linha?
Existem muitos experimentos de pensamento filosófico e testes que os filósofos morais usam para determinar se uma entidade tem livre arbítrio e/ou agência para construir uma justificativa para o estabelecimento de direitos.
Pensando em um curso de filosofia da mente que fiz como estudante de filosofia muitos anos atrás, uma discussão importante que me lembro de ter era se a capacidade de sentir dor (física ou psicológica) era base para o estabelecimento de direitos humanos.
Se a entidade em questão pode sentir dor física ou psicológica (e desejar livrar-se da dor), pensou-se que esses fatos podem acarretar certos direitos. Uma entidade não precisa necessariamente experimentar a consciência (e o mundo) da mesma forma que um ser humano para garantir direitos; em vez disso, a capacidade de sofrer inerentemente contém ou dá origem a esses direitos.
Essa visão é aquela que é apresentada por eticistas animais e foi a posição do 18º filósofo inglês Jeremy Bentham, que sustentou que a questão importante em relação aos animais não é “Eles podem raciocinar? nem eles podem falar? mas eles podem sofrer?
Certamente, existem direitos contra o abuso de animais; quando as crianças vão para a faculdade e o cachorro da família é menos interessante, ele não é levado para o ferro-velho como Klara foi.
De fato, a lei reconhece que os animais domésticos devem ser protegidos, pois podem sofrer e o tecido moral da sociedade é enfraquecido se permitirem que sejam abusados.
Argumentos semelhantes podem ser feitos para proteger a IA se um dia ela puder pensar, sentir e sofrer. No entanto, neste ponto, a IA está longe de atingir qualquer um desses estados mentais e físicos e talvez, como alguns especialistas argumentam, nunca o fará.
Ainda assim, a questão filosófica sobre se devemos estender os direitos humanos à IA se certos requisitos forem atendidos é interessante.
Porém, as primeiras coisas primeiro: proteger-nos dos danos que a IA pode causar à humanidade e à sociedade e, em seguida , considerar outras questões importantes. A IA continuará a ser um assunto urgente para os formuladores de políticas no futuro previsível e, à medida que a conversa evolui, o pensamento sobre os direitos da IA também deve acontecer.
Também publicado aqui.