A Inteligência Artificial (IA ) continua a desenvolver-se como uma força transformadora em muitas esferas da vida, começando já a revolucionar as indústrias e a remodelar a forma como vivemos e trabalhamos. O tema da IA na guerra exigirá uma atenção crescente por parte dos governos, dos decisores políticos e das organizações internacionais. Uma grande parte disto deve-se a avanços significativos no desenvolvimento de sistemas de armas autónomos (AWS), que utilizam algoritmos para operar de forma independente e sem supervisão humana no campo de batalha. De forma mais ampla, a IA, nas suas diversas formas, tem o potencial de melhorar uma série de atividades militares, desde robótica e armamento até à recolha de informações e à tomada de decisões.
Com tal diversidade de aplicações potenciais surge um conjunto único de dilemas éticos. Os benefícios da IA na guerra são o aumento da precisão, a redução das baixas humanas e até mesmo a dissuasão contra a entrada em conflitos armados, em primeiro lugar, semelhante à ameaça de guerra nuclear. No entanto, isto significaria dar às máquinas a capacidade de tomar decisões deliberadas de vida ou morte, confundindo os limites da responsabilização e possivelmente indo contra os princípios fundamentais da moralidade na guerra.
Tal como sublinha o Instituto Internacional de Investigação para a Paz de Estocolmo, a IA tornou-se uma parte crucial das estratégias e orçamentos militares, contribuindo para uma “corrida armamentista” mais ampla[1]. Combinada com ameaças nucleares e atómicas, a geopolítica deve, portanto, questionar a ética da contínua armamento da tecnologia. Alguns acreditam que estes avanços acabarão por levar a um pensamento de soma zero que dominará a política mundial. Esta lógica não é nova; Alfred Nobel esperava que o poder destrutivo da dinamite pusesse fim a todas as guerras[2].
A IA já começou a ser incorporada na tecnologia de guerra, como em enxames de drones, mísseis guiados e análise logística. Os sistemas autónomos têm sido incorporados no armamento defensivo há ainda mais tempo, por exemplo, minas anti-veículo e antipessoal. Os desenvolvimentos futuros continuarão a aspirar a níveis crescentes de autonomia. Os EUA estão testando bots de IA que podem pilotar sozinhos uma versão modificada do caça F-16; A Rússia está testando tanques autônomos; e a China também está a desenvolver as suas próprias armas alimentadas por IA[3].
O objetivo é proteger a vida humana, continuando a mecanizar e automatizar os campos de batalha. “Posso facilmente imaginar um futuro em que os drones superem consideravelmente o número de pessoas nas forças armadas[3]”, disse Douglas Shaw, conselheiro sénior da Iniciativa de Ameaça Nuclear. Assim, em vez de soldados serem destacados para o terreno, salvamos vidas colocando-os em aviões e armando-os com mísseis. Agora, com a IA, os militares esperam poupar ainda mais vidas humanas das suas forças.
Isso parece ótimo até agora. Salve vidas usando IA para direcionar drones. Salve vidas usando IA para lançar mísseis. A diferença entre este salto tecnológico na guerra e as inovações do passado é a falta de participação humana na tomada de decisões. Com a AWS e os sistemas de armas letais autónomos (LAWS), estamos entregando o poder de matar um ser humano a um algoritmo que não tem humanidade intuitiva.
Várias questões éticas, morais e legais surgem aqui.
É justo que a vida humana seja ceifada na guerra sem que outro ser humano esteja do outro lado dessa ação? O programador de um algoritmo em um LAWS tem a mesma responsabilidade de representar seu país como um piloto de caça e/ou o mesmo direito de contribuir para tirar vidas do inimigo?
Tal como acontece com os dilemas éticos que rodeiam os veículos autónomos[4], é moralmente justificável delegar decisões de vida ou morte a algoritmos alimentados por IA? Do ponto de vista tecnológico, isso dependerá em parte da transparência da programação da AWS: treinamento, conjuntos de dados utilizados, preferências codificadas e erros como vieses, nesses modelos. Mesmo que alcancemos um nível adequado de precisão e transparência, deveriam os AWS e os LAWS serem considerados morais na guerra?
A Teoria da Guerra Justa, creditada a Santo Agostinho e Tomás de Aquino no século XIII[5], avalia a moralidade da guerra e a tomada de decisões éticas em conflitos armados. Entre as diretrizes para jus ad bellum (justiça de guerra) e jus in bello (justiça na guerra), as considerações mais notáveis são:
Pode-se argumentar que o uso de armas alimentadas por IA e as LEIS não garantem a adesão a estas convenções.
Na proporcionalidade, o armamento apoiado pela IA teria a capacidade de aplicar força com maior velocidade, potência e precisão do que nunca. Será que este nível de força corresponderia necessariamente à ameaça colocada/objetivo militar, especialmente se usado contra um país com armamento menos avançado tecnologicamente? Da mesma forma, e se um LAWS receber informações erradas ou tiver alucinações e criar uma previsão imprecisa? Isto poderia levar à formação e execução de força militar desnecessária e a ações desproporcionais.
No que diz respeito à discriminação, estas tecnologias não são 100% precisas. Ao disparar um míssil contra uma força inimiga, o que acontece se as tecnologias de reconhecimento facial[6] não conseguirem distinguir civis de combatentes? Isto minaria a distinção moral entre alvos militares legítimos e espectadores inocentes.
Um painel de peritos da ONU relatou a possível utilização de um LAWS – STM Kargu-2 – na Líbia em 2020, implantado pelos militares turcos contra as Forças Afiliadas de Haftar (HAF)[7]. Descritos como sendo “programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição” [8], as unidades drone foram eventualmente neutralizadas por interferência eletrônica. O envolvimento desta tecnologia aérea remota mudou a maré do que anteriormente tinha sido “um conflito de baixa intensidade e baixa tecnologia, no qual evitar baixas e proteger a força eram uma prioridade para ambas as partes”[7].
Embora tenham causado baixas significativas, não está claro se os drones de ataque não tripulados causaram alguma morte[8]. Ainda assim, destaca problemas com o uso não regulamentado e não tripulado de veículos aéreos de combate e drones.
As unidades HAF não foram treinadas para se defenderem contra esta forma de ataque, não tiveram proteção contra os ataques aéreos (que ocorreram apesar dos drones estarem offline) e mesmo em retirada continuaram a ser hostilizadas pelas LAWS. Isto por si só já começa a violar o princípio da proporcionalidade, ainda mais quando se considera que os STM Kargu-2 mudaram a dinâmica do conflito. Os relatórios chegam ao ponto de sugerir que “a introdução pela Turquia de tecnologia militar avançada no conflito foi um elemento decisivo na… guerra de desgaste desigual que resultou na derrota do HAF no oeste da Líbia durante 2020”[7].
Desde 2018, o Secretário-Geral da ONU, António Guterres, tem defendido que as LEIS são política e moralmente inaceitáveis[9]. Na sua Nova Agenda para a Paz de 2023, Guterres apelou para que isto fosse formalizado e posto em prática até 2026. Ao abrigo disto, ele sugere uma proibição total da utilização de AWS, que funciona sem supervisão humana e não cumpre o direito internacional, e a regulamentação da todos os outros AWS.
Este tipo de cooperação e regulamentação internacional será necessária para ajudar a superar as preocupações éticas que discutimos. Por enquanto, o uso da AWS sem supervisão humana causará os problemas mais imediatos. A falta de um tomador de decisão humano cria questões de responsabilidade. Sem uma cadeia de comando, quem assume a responsabilidade pelo mau funcionamento ou pela falibilidade geral de um sistema alimentado por IA?
Além disso, haveria uma consequente falta de responsabilização. Especialmente na guerra tradicional, onde existem princípios morais definidos como a Teoria da Guerra Justa, aqui não haveria agente culpado pelas ações tomadas por sistemas autónomos.
Finalmente, embora haja benefícios na adoção crescente da IA em aplicações militares, a forma como estas tecnologias acabarão por ser utilizadas definirá se se tornará uma solução utópica ou uma proliferação da já politicamente desestabilizadora corrida armamentista.
Portanto, a discussão contínua em torno de quadros internacionais juridicamente vinculativos para garantir a responsabilização na guerra da IA será, sem dúvida, uma das áreas mais cruciais da regulamentação da IA num futuro próximo.