paint-brush
IA en la guerra: progreso, preocupaciones éticas y el futuro de la tecnología militarpor@chinechnduka
1,935 lecturas
1,935 lecturas

IA en la guerra: progreso, preocupaciones éticas y el futuro de la tecnología militar

por Chinecherem Nduka8m2023/03/01
Read on Terminal Reader

Demasiado Largo; Para Leer

La inteligencia artificial ahora se está desarrollando rápidamente, y su uso en el ejército ha alterado significativamente la forma en que se lleva a cabo el combate. Uno de los avances más significativos en la guerra de IA es el uso de vehículos aéreos no tripulados (UAV), a menudo denominados drones. Los beneficios de la IA en la guerra son innegables, pero también existen inquietudes y preguntas éticas sobre el impacto de esta tecnología.
featured image - IA en la guerra: progreso, preocupaciones éticas y el futuro de la tecnología militar
Chinecherem Nduka HackerNoon profile picture
0-item
1-item


La infraestructura militar mundial está experimentando importantes alteraciones y un alto ritmo de desarrollo tecnológico. Cuando el presidente de Estados Unidos, Joe Biden, dijo:


“Vamos a ver más cambios tecnológicos en los próximos 10 años que los que vimos en los últimos 50”.


Se refería a lo descaradamente obvio. La inteligencia artificial ahora se está desarrollando rápidamente, y su uso en el ejército ha alterado significativamente la forma en que se lleva a cabo el combate. Lo que antes se consideraba ciencia ficción ahora es una realidad que se desmorona. Este campo de la tecnología lo está alterando todo, desde drones y armamentos autónomos hasta algoritmos de toma de decisiones y sistemas de vigilancia.


Kai-Fu Lee, ex presidente de Google China y director ejecutivo de Sinovation Ventures en su libro "AI 2041: Ten Visions for Our Future", dijo:


“El armamento autónomo es la tercera revolución en la guerra, después de la pólvora y las armas nucleares”.


En sus palabras,


“La evolución de las minas terrestres a los misiles guiados fue solo un preludio de la verdadera autonomía habilitada por la IA: el compromiso total de matar: buscar, decidir participar y destruir otra vida humana, completamente sin participación humana”.


Si bien los beneficios de la IA en la guerra son innegables, también existen inquietudes y preguntas éticas sobre el impacto de esta tecnología en el futuro de los conflictos militares, pero primero, una inmersión en el progreso que ha habido hasta ahora.


Progreso en la guerra de IA

De acuerdo a un SRC (Servicio de informes del Congreso) informe , tanto Estados Unidos como sus rivales China y Rusia están integrando actualmente IA estrecha en varias aplicaciones militares. Algunas de estas aplicaciones son comando y control, logística, operaciones cibernéticas, inteligencia, vigilancia y reconocimiento, así como vehículos autónomos y semiautónomos.


En la actualidad, uno de los avances más significativos en la guerra de IA es el uso de vehículos aéreos no tripulados (UAV), a menudo denominados drones. Estos vehículos se han utilizado ampliamente en operaciones militares de reconocimiento, recopilación de inteligencia y ataques dirigidos.


Durante la escalada más reciente de la Nagorno-Karabaj conflicto en 2020, la tecnología de IA desempeñó un papel más destacado. La flota de vehículos aéreos no tripulados empleados en el conflicto tenía una afluencia de autonomía y capacidades de vigilancia. Otro conflicto entre Israel y Hamás en mayo de 2021 conocido como “ Operación Guardián de los Muros, ” es otro ejemplo de la aplicación de la IA en la guerra. El ejército israelí utilizó el aprendizaje automático y la supercomputación para apuntar a los túneles y lanzacohetes de Hamás. Se la conoce como la primera guerra de inteligencia artificial.


El conflicto continuo entre Rusia y Ucrania también ha revelado usos nunca antes vistos de drones impulsados por IA en combate. Mientras Rusia está utilizando AI para mejorar la efectividad de sus drones y la guerra electrónica contra los soldados ucranianos, AI también está ayudando Ucrania en defensa propia ayudando a detectar actividades enemigas y mejorando su propio armamento. En conjunto, todos estos han ofrecido evidencia clara de cómo los campos de batalla están siendo transformados por máquinas habilitadas para IA que salen de las líneas de ensamblaje en todo el mundo.


Hace unos años, el Future of Life Institute compartió en su sitio web una breve película distópica que ilustra lo que puede hacer un tipo de dron alimentado por IA (llamados bots de matanza). En ese momento, eran meras proyecciones. Pero hoy en día, estas letales armas autónomas mejoradas por IA, a veces denominadas "robots asesinos", ahora se usan en el campo de batalla.


El Naciones Unidas documentó la primera instancia de su uso en la vida real en Libia en marzo de 2021. En un período corto ese mismo año, El primer caso conocido de una IA controlada enjambre de drones se observó en Israel. Las Fuerzas de Defensa de Israel (FDI) emplearon un enjambre de pequeños drones para encontrar, identificar y atacar a los militantes de Hamas durante las operaciones en Gaza a mediados de mayo, según un informe de Científico nuevo .


En los últimos años, la tecnología de drones se ha vuelto más sofisticada, con algoritmos de IA que les permiten tomar decisiones basadas en análisis de datos en tiempo real. Según Jyoti Sinha, CTO de Omnipresent Robot Technologies.


“En la guerra táctica, los drones de enjambre impulsados por IA pueden llevar a cabo la destrucción y el desmantelamiento simultáneos de múltiples objetivos utilizando configuraciones precisas de enjambre y localización flotante, incluso cuando hay menos sofisticación disponible con equipo de defensa guiada... Mientras apuntan a las líneas del frente enemigas, incluso si algunos de los drones están atacados, los algoritmos cognitivos de IA se activan y reconfiguran el posicionamiento de la red de drones para mantener el conocimiento de la situación y ayudar a completar la misión”.


Algunos ejemplos de estas armas autónomas habilitadas para IA incluyen el Bayraktar TB2 de fabricación turca que tiene capacidades tanto de ataque armado como de inteligencia, vigilancia y reconocimiento (ISR) y el Zala Lancent por Kalashnikov que pretende presentar “Detección y reconocimiento inteligente de objetos por clase y tipo” utilizando algoritmos de visión artificial.


Bayraktar TB2


Zala Lancet de Kalashnikov


Boeing también presentó en 2020, lo que llamó el primer avión leal Wingman diseñado para volar y luchar, por supuesto, de forma autónoma junto con aviones tripulados como aviones de combate. Su nombre, Loyal Wingman, proviene de la descripción que hace la compañía de él como un "aliado fiel".


Si bien estos desarrollos en la aplicación de la inteligencia artificial a la tecnología militar tienen sus beneficios, existe la preocupación de que puedan conducir a una pérdida de control sobre las operaciones militares y tener repercusiones imprevistas.


Preocupaciones éticas

La vía rápida de progreso registrada en el campo de la tecnología militar plantea cuestiones éticas sobre su aplicación tanto en la guerra como fuera de ella. Por ejemplo, mientras que la inteligencia artificial se puede utilizar en vigilancia y recopilación de inteligencia , ayudando a identificar amenazas potenciales y prevenir ataques, también existe el riesgo de que pueda usarse para monitorear y controlar poblaciones civiles, que conducen a violaciones de los derechos humanos y la privacidad .


La posibilidad de que los sistemas de IA funcionen mal o se vean comprometidos, con resultados no deseados o incluso desastrosos, también es una de las mayores preocupaciones, además de los problemas con la responsabilidad de estos sistemas, particularmente cuando las armas autónomas tienen que elegir a quién atacar y cuándo hacerlo. .


En un documento reciente titulado "Declaración política sobre el uso militar responsable de la inteligencia artificial y la autonomía", el Departamento de Estado de EE. UU. pidió a las naciones que desarrollan IA que empleen tecnología en operaciones militares de una manera moral y responsablemente aceptable.


El gobierno de EE. UU. afirma estar de acuerdo en que el uso de inteligencia artificial (IA) en el ejército puede y debe ser ético, responsable y mejorar la seguridad global, por lo que presenta su propio marco e invita a otras naciones a unirse en acuerdo. El mismo día la proclamación fue lanzado, más de 60 naciones, incluido el mayor rival de Estados Unidos, China, firmaron un "llamado a la acción" que aboga por el uso responsable de la inteligencia artificial (IA) en el ejército.


Sin embargo, se han planteado preocupaciones sobre hasta dónde puede llegar la declaración para mantener la tecnología militar dentro de los límites de la moralidad porque no está claro exactamente qué tipos de sistemas autónomos o impulsados por IA se incluyen en la declaración. Reuters informó que además de no abordar temas como los drones guiados por IA, los "robots de matanza" que pueden matar sin la participación humana o la posibilidad de que una IA pueda exacerbar una confrontación militar, expertos en derechos humanos y académicos señalaron que la declaración no era legalmente vinculante. .


Otra preocupación es el papel de los humanos en la toma de decisiones en el campo de batalla y el potencial de la IA para deshumanizar la guerra y hacerla más destructiva. La idea de que las máquinas tengan la libertad y la capacidad de quitar vidas humanas es moralmente abominable, según el secretario general de las Naciones Unidas, António Guterres. en un declaración publicado en el sitio web de las Naciones Unidas en septiembre de 2018, exclamó:


“Los impactos de las nuevas tecnologías en la guerra son una amenaza directa a nuestra responsabilidad común de garantizar la paz y la seguridad”.


Después de la invasión rusa de Ucrania en febrero de 2022, cuatro años después, vemos que tanto los temores se hacen realidad como el cumplimiento de tales profecías comienza a colarse. Según un Informe interno , la crisis de Ucrania ha visto un mayor uso de vehículos aéreos no tripulados mejorados con IA que en cualquier otra batalla reciente. Tal como está, ambos Rusia y Ucrania han estado usando tecnología autónoma entre sí en la guerra en curso.


Rusia, por ejemplo, ha estado utilizando "municiones merodeadoras" como las que hizo Russain. Lanset e iraní Shahed-136 también llamado Geranium-2 . Conocidos coloquialmente como drones "kamikaze", estas municiones orbitan en una ubicación específica hasta que detectan una categoría de objetivo predeterminada, luego chocan contra el objeto y detonan el explosivo. Ucrania, por su parte, ha estado desplegando un dron de fabricación turca, Bayraktar TB2 , que opera de forma autónoma excepto cuando decide cuándo lanzar las bombas guiadas por láser que lleva.


Guterres cree que un menor control de tales municiones plantea un gran desafío, ya que pone en peligro los intentos de mitigar las amenazas, prevenir la escalada y defender el derecho internacional humanitario y de derechos humanos. en un carta abierta ante las Naciones Unidas, el CEO de Tesla, Elon Musk, y otros 115 expertos ofrecieron sugerencias que destacaron las preocupaciones éticas sobre el uso de estas armas autónomas. Según la carta,


“Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra. Una vez desarrollados, permitirán que los conflictos armados se luchen a una escala mayor que nunca y en escalas de tiempo más rápidas de lo que los humanos pueden comprender. Estas pueden ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes y armas pirateadas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrarla”.


El futuro de la tecnología militar

Además de las preocupaciones antes mencionadas, no está claro qué efecto tendrá la tecnología de IA en la política global y la estabilidad geopolítica en el futuro cercano. Sin embargo, el desarrollo de la tecnología militar, según analistas , podría desencadenar una nueva carrera armamentista ya que los gobiernos y las organizaciones militares invierten mucho en investigación y desarrollo en este campo, generalmente con el objetivo de obtener una ventaja militar. Aunque Estados Unidos, China y Rusia parecen estar liderando esta carrera, el futuro aún parece incierto y complejo.


Investigación por ML Cummings está de acuerdo en que tanto los robots militares como los comerciales eventualmente incorporarán "inteligencia artificial (IA) que podría hacerlos capaces de realizar tareas y misiones por su cuenta, pero también señaló que pasarán muchos años antes de que la IA pueda aproximarse a los humanos". inteligencia en situaciones de alta incertidumbre debido a la lucha actual por imbuir a las computadoras con conocimiento verdadero y comportamientos basados en expertos, así como limitaciones en los sensores de percepción.


Durante la Cumbre de Tecnologías Emergentes Globales de la Comisión de Seguridad Nacional sobre Inteligencia Artificial, el Secretario de Defensa de EE. UU., Lloyd J. Austin comentó ,


“La IA es fundamental para nuestra agenda de innovación, ya que nos ayuda a calcular más rápido, compartir mejor y aprovechar otras plataformas. Y eso es fundamental para las peleas del futuro”.


El Departamento de Defensa de EE. UU., afirmó, invertirá aproximadamente $ 1.5 mil millones de dólares durante los próximos cinco años en un esfuerzo por acelerar la adopción de la IA. Expertos , sin embargo, cree que el ejército de los EE. UU. está avanzando lentamente, particularmente si el objetivo es mantenerse al día con China, que según informe , está invirtiendo más de $ 1.6 mil millones en tecnología militar cada año. China declaró en 2017 que tenía la intención de convertirse en el líder mundial en inteligencia artificial (IA) para 2030, y ahora lo hace en términos de publicaciones y patentes de investigación en el campo.


Rusia, por otro lado, ha declarado la IA una prioridad nacional y ha lanzado varias iniciativas para desarrollar e implementar aplicaciones de IA. El presidente de Rusia, Vladimir Putin, a través de un video en vivo, dijo:


“La inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad, quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.


Aunque gasta menos en defensa que EE. UU. y China, Rusia se ha fijado el objetivo de tener 30 por ciento de equipos militares automatizados para 2025 como parte de un programa de modernización de la defensa que se inició en 2008.


Hay diferentes opiniones y predicciones sobre quién ganará la carrera armamentista de la IA, pero en última instancia, tanto eso como el futuro de la IA en lo que respecta a la guerra, en general, no es claramente predecible. Sin embargo, la distinción entre ciencia ficción y realidad práctica puede haber comenzado a desvanecerse. Analistas Espere que la tecnología de inteligencia artificial aumente drásticamente el poder militar, y esto probablemente dará forma a la naturaleza y la dinámica del conflicto en los próximos años. Si la IA nos llevará a una era de utopía o distopía, solo el tiempo lo dirá.