paint-brush
IA na Guerra: Progresso, Preocupações Éticas e o Futuro da Tecnologia Militarpor@chinechnduka
1,939 leituras
1,939 leituras

IA na Guerra: Progresso, Preocupações Éticas e o Futuro da Tecnologia Militar

por Chinecherem Nduka8m2023/03/01
Read on Terminal Reader

Muito longo; Para ler

A inteligência artificial está se desenvolvendo rapidamente e seu uso nas forças armadas alterou significativamente a forma como o combate é travado. Um dos avanços mais significativos na guerra de IA é o uso de veículos aéreos não tripulados (UAVs), geralmente chamados de drones. Os benefícios da IA na guerra são inegáveis, mas também há preocupações éticas e questões sobre o impacto dessa tecnologia.
featured image - IA na Guerra: Progresso, Preocupações Éticas e o Futuro da Tecnologia Militar
Chinecherem Nduka HackerNoon profile picture
0-item
1-item


A infraestrutura militar mundial está passando por grandes alterações e alto índice de desenvolvimento tecnológico. Quando o presidente da América, Joe Biden disse:


“Vamos ver mais mudanças tecnológicas nos próximos 10 anos do que vimos nos últimos 50.”


Ele estava se referindo ao flagrantemente óbvio. A inteligência artificial agora está se desenvolvendo rapidamente e seu uso nas forças armadas alterou significativamente a forma como o combate é travado. O que antes era considerado ficção científica é agora uma realidade em desvendamento. Este campo da tecnologia está alterando tudo, desde drones e armamentos autônomos até algoritmos de tomada de decisão e sistemas de vigilância.


Kai-Fu Lee, ex-presidente do Google China e CEO da Sinovation Ventures em seu livro “AI 2041: Ten Visions for Our Future”, disse:


“O armamento autônomo é a terceira revolução na guerra, depois da pólvora e das armas nucleares.”


Em suas palavras,


“A evolução de minas terrestres para mísseis guiados foi apenas um prelúdio para a verdadeira autonomia habilitada por IA – o envolvimento total da matança: procurar, decidir engajar e obliterar outra vida humana, completamente sem envolvimento humano.”


Embora os benefícios da IA na guerra sejam inegáveis, também há preocupações éticas e questões sobre o impacto dessa tecnologia no futuro dos conflitos militares, mas primeiro, um mergulho no progresso até agora.


Progresso na guerra de IA

De acordo com um CRS (Serviço de Relatório do Congresso) relatório , tanto os Estados Unidos quanto seus rivais China e Rússia estão atualmente integrando AI estreita em várias aplicações militares. Algumas dessas aplicações são comando e controle, logística, operações cibernéticas, inteligência, vigilância e reconhecimento, bem como veículos semi-autônomos e autônomos.


Atualmente, um dos avanços mais significativos na guerra de IA é o uso de veículos aéreos não tripulados (UAVs), frequentemente chamados de drones. Esses veículos têm sido usados extensivamente em operações militares para reconhecimento, coleta de informações e ataques direcionados.


Durante a escalada mais recente da Nagorno-Karabakh conflito em 2020, a tecnologia AI desempenhou um papel mais proeminente. A frota de UAVs empregada no conflito teve um influxo de capacidades de autonomia e vigilância. Outro conflito entre Israel e o Hamas em maio de 2021 conhecido como “ Operação Guardião das Muralhas, ” é outro exemplo da aplicação da IA na guerra. Os militares israelenses usaram aprendizado de máquina e supercomputação para atingir os lançadores de foguetes e túneis do Hamas. É referido como a primeira guerra de inteligência artificial.


O conflito contínuo entre a Rússia e a Ucrânia também revelou usos inéditos de drones com inteligência artificial em combate. Enquanto Rússia está utilizando IA para melhorar a eficácia de seus drones e guerra eletrônica contra soldados ucranianos, a IA também está ajudando Ucrânia em autodefesa, ajudando na detecção de atividades inimigas e aprimorando seu próprio armamento. Ao todo, todos eles ofereceram evidências claras de como os campos de batalha estão sendo transformados por máquinas habilitadas para IA saindo das linhas de montagem em todo o mundo.


Alguns anos atrás, um pequeno filme distópico que ilustra o que um tipo de drone alimentado por IA (chamado de matadouros) pode fazer foi compartilhado pelo Future of Life Institute em seu site. Na época, eram meras projeções. Mas hoje, essas armas autônomas letais aprimoradas por IA, às vezes chamadas de “robôs assassinos”, estão em uso no campo de batalha.


O Nações Unidas documentou a primeira vez que foi usado na vida real na Líbia em março de 2021. Em um curto período naquele mesmo ano, A primeira instância conhecida de uma IA controlada enxame de drones foi observada em Israel. As Forças de Defesa de Israel (IDF) empregaram um enxame de pequenos drones para encontrar, identificar e atacar militantes do Hamas durante as operações em Gaza em meados de maio, de acordo com um relatório de novo cientista .


Nos últimos anos, a tecnologia dos drones tornou-se mais sofisticada, com algoritmos de IA que permitem tomar decisões com base na análise de dados em tempo real. De acordo com Jyoti Sinha, CTO da Omnipresent Robot Technologies.


“Na guerra tática, os drones de enxame movidos a IA podem realizar destruição e desmantelamento simultâneos de vários alvos usando configurações de enxame precisas e localização flutuante, mesmo quando menos sofisticação está disponível com equipamentos de defesa guiados… atacados, os algoritmos cognitivos de IA entram em ação e reconfiguram o posicionamento da rede do drone para manter a consciência situacional e ajudar na conclusão da missão.”


Alguns exemplos dessas armas autônomas habilitadas para IA incluem o Bayraktar TB2, fabricado na Turquia, que possui recursos de ataque armado e inteligência, vigilância e reconhecimento (ISR) e o Zala Lancent por Kalashnikov que afirma apresentar “detecção inteligente e reconhecimento de objetos por classe e tipo” usando algoritmos de visão computacional.


Bayraktar TB2


Zala Lancet por Kalashnikov


A Boeing também revelou em 2020, o que chamou de Primeira Aeronave Wingman leal projetada para voar e lutar, é claro, de forma autônoma ao lado de aeronaves tripuladas como caças. Seu nome, Loyal Wingman, vem da descrição da empresa como um "aliado fiel".


Embora esses desenvolvimentos na aplicação da inteligência artificial à tecnologia militar tenham seus benefícios, há preocupações de que possam levar à perda de controle sobre as operações militares e ter repercussões imprevistas.


Preocupações éticas

O rápido progresso registrado no campo da tecnologia militar levanta questões éticas sobre sua aplicação tanto na guerra quanto fora dela. Por exemplo, enquanto a inteligência artificial pode ser usada em vigilância e coleta de informações , auxiliando na identificação de ameaças potenciais e na prevenção de ataques, também existe o risco de ser usado para monitorar e controlar populações civis, levando a violações dos direitos humanos e da privacidade .


A possibilidade de mau funcionamento ou comprometimento dos sistemas de IA, com resultados indesejados ou mesmo desastrosos, também é uma das maiores preocupações, além de problemas com a responsabilidade desses sistemas, principalmente quando as armas autônomas precisam escolher quem atacar e quando fazê-lo. .


Em um documento recente intitulado "Declaração política sobre o uso militar responsável de inteligência artificial e autonomia", o Departamento de Estado dos EUA convocou as nações que desenvolvem IA a empregar tecnologia em operações militares de maneira moral e responsável aceitável.


O governo dos EUA afirma concordar que o uso de inteligência artificial (IA) nas forças armadas pode e deve ser ético, responsável e aumentar a segurança global, portanto, estabelecendo sua própria estrutura e convidando outras nações a se unirem em acordo. No mesmo dia, a proclamação foi lançado, um "chamado à ação" defendendo o uso responsável da inteligência artificial (IA) nas forças armadas foi assinado por mais de 60 nações, incluindo o maior rival dos Estados Unidos, a China.


No entanto, foram levantadas preocupações sobre até que ponto a declaração pode manter a tecnologia militar dentro dos limites da moralidade, porque não está claro exatamente quais tipos de sistemas autônomos ou baseados em IA estão incluídos na declaração. Reuters relatou que, além de não abordar questões como drones guiados por IA, "slaughterbots" que podem matar sem participação humana ou a possibilidade de uma IA exacerbar um confronto militar, especialistas em direitos humanos e acadêmicos apontaram que a declaração não era juridicamente vinculativa .


Outra preocupação é o papel dos humanos na tomada de decisões no campo de batalha e o potencial da IA para desumanizar a guerra e torná-la mais destrutiva. A ideia de máquinas com liberdade e capacidade de tirar a vida humana é moralmente abominável, de acordo com o secretário-geral das Nações Unidas, António Guterres. Em um declaração publicado no site das Nações Unidas em setembro de 2018, ele exclamou:


“Os impactos das novas tecnologias na guerra são uma ameaça direta à nossa responsabilidade comum de garantir a paz e a segurança.”


Após a invasão russa da Ucrânia em fevereiro de 2022, quatro anos depois, vemos tanto os medos se tornando reais quanto o cumprimento de tais profecias começando a surgir. relatório interno , a crise da Ucrânia viu mais uso de UAVs aprimorados por IA do que em qualquer outra batalha recente. Do jeito que está, ambos Rússia e Ucrânia têm usado tecnologia autônoma uns contra os outros na guerra em curso.


A Rússia, por exemplo, tem utilizado "munições ociosas" como as fabricadas por Russain Lanset e iraniano Shahed-136s também chamado Geranium-2 . Coloquialmente referidos como drones "kamikaze", essas munições orbitam um local especificado até detectar uma categoria de alvo predeterminada e, em seguida, colidem com o objeto, detonando o explosivo. A Ucrânia, por outro lado, está implantando um drone de fabricação turca, Bayraktar TB2 , que opera de forma autônoma, exceto ao decidir quando lançar as bombas guiadas por laser que carrega.


Guterres acredita que menos monitoramento de tais munições representa um grande desafio, pois compromete as tentativas de mitigar ameaças, prevenir a escalada e defender a lei internacional humanitária e de direitos humanos. em um carta aberta para as Nações Unidas, o CEO da Tesla, Elon Musk, e 115 outros especialistas ofereceram sugestões que destacaram preocupações éticas sobre o uso dessas armas autônomas. De acordo com a carta,


“Armas autônomas letais ameaçam se tornar a terceira revolução na guerra. Uma vez desenvolvidos, eles permitirão que conflitos armados sejam travados em uma escala maior do que nunca e em escalas de tempo mais rápidas do que os humanos podem compreender. Podem ser armas de terror, armas que déspotas e terroristas usam contra populações inocentes e armas hackeadas para se comportarem de maneira indesejável. Não temos muito tempo para agir. Uma vez aberta esta caixa de Pandora, será difícil fechá-la.”


O futuro da tecnologia militar

Além das preocupações mencionadas, não está claro que efeito a tecnologia de IA terá na política global e na estabilidade geopolítica no futuro próximo. No entanto, o desenvolvimento da tecnologia militar, segundo analistas , pode desencadear uma nova corrida armamentista à medida que governos e organizações militares investem extensivamente em pesquisa e desenvolvimento neste campo, geralmente com o objetivo de obter uma vantagem militar. Embora os EUA, a China e a Rússia pareçam liderar esta corrida, o futuro ainda parece incerto e complexo.


Pesquisar por ML Cummings concorda que os robôs militares e comerciais acabarão por incorporar "inteligência artificial (IA) que poderia torná-los capazes de realizar tarefas e missões por conta própria, mas também observou que levará muitos anos até que a IA seja capaz de se aproximar do humano inteligência em situações de alta incerteza devido à luta atual para imbuir os computadores com conhecimento verdadeiro e comportamentos baseados em especialistas, bem como limitações nos sensores de percepção.


Durante a Cúpula Global de Tecnologia Emergente da Comissão de Segurança Nacional sobre Inteligência Artificial, o Secretário de Defesa dos EUA, Lloyd J. Austin comentou ,


“A IA é fundamental para nossa agenda de inovação, ajudando-nos a computar mais rapidamente, compartilhar melhor e alavancar outras plataformas. E isso é fundamental para as lutas do futuro.”


O Departamento de Defesa dos EUA, afirmou, investirá cerca de US$ 1,5 bilhão nos próximos cinco anos em um esforço para acelerar a adoção da IA. Especialistas , no entanto, acreditam que os militares dos EUA estão avançando lentamente, principalmente se o objetivo for ficar com a China, que segundo relatório , está investindo mais de US$ 1,6 bilhão em tecnologia militar anualmente. A China declarou em 2017 que pretendia se tornar líder global em inteligência artificial (IA) até 2030, e agora o faz em termos de publicações e patentes de pesquisa na área.


A Rússia, por outro lado, declarou a IA uma prioridade nacional e lançou várias iniciativas para desenvolver e implantar aplicativos de IA. O presidente da Rússia, Vladimir Putin, via vídeo ao vivo, disse:


“A inteligência artificial é o futuro, não apenas para a Rússia, mas para toda a humanidade, quem se tornar o líder nesta esfera se tornará o governante do mundo.”


Embora gaste menos com defesa do que os EUA e a China, a Rússia tem como meta ter 30 por cento de equipamentos militares automatizados até 2025 como parte de um programa de modernização de defesa iniciado em 2008.


Existem opiniões e previsões diferentes sobre quem vencerá a corrida armamentista da IA, mas, em última análise, tanto isso quanto o futuro da IA, conforme se aplica à guerra, em geral, não são claramente previsíveis. No entanto, a distinção entre ficção científica e realidade prática pode ter começado a desaparecer. Analistas esperamos que a tecnologia de inteligência artificial aumente drasticamente o poder militar, e isso provavelmente moldará a natureza e a dinâmica do conflito nos próximos anos. Se a IA nos levará a uma era de utopia ou distopia, só o tempo dirá.