paint-brush
La ética de la IA en la guerra moderna: equilibrar la innovación con la responsabilidad moralpor@nimit
12,727 lecturas
12,727 lecturas

La ética de la IA en la guerra moderna: equilibrar la innovación con la responsabilidad moral

por Nimit6m2024/04/06
Read on Terminal Reader

Demasiado Largo; Para Leer

Este artículo profundiza en los dilemas éticos que plantea el uso de la IA en la guerra, examinando las implicaciones de los sistemas de armas autónomos y su impacto en las estrategias militares. Sopesa los beneficios de una mayor precisión y una reducción de las bajas humanas frente a las preocupaciones morales de delegar decisiones de vida o muerte a las máquinas y los desafíos de adherirse a los principios de la teoría de la guerra justa. El artículo también analiza los esfuerzos internacionales para la regulación y la rendición de cuentas en las aplicaciones militares impulsadas por la IA.
featured image - La ética de la IA en la guerra moderna: equilibrar la innovación con la responsabilidad moral
Nimit HackerNoon profile picture
0-item

La Inteligencia Artificial (IA ) continúa desarrollándose como una fuerza transformadora en muchas esferas de la vida y ya está comenzando a revolucionar las industrias y remodelar la forma en que vivimos y trabajamos. El tema de la IA en la guerra requerirá una atención cada vez mayor por parte de los gobiernos, los responsables políticos y las organizaciones internacionales. Gran parte de esto se debe a avances significativos en el desarrollo de sistemas de armas autónomos (AWS), que utilizan algoritmos para operar de forma independiente y sin supervisión humana en el campo de batalla. En términos más generales, la IA en sus múltiples formas tiene el potencial de mejorar una variedad de actividades militares, desde la robótica y el armamento hasta la recopilación de inteligencia y la toma de decisiones.


Con tanta diversidad de aplicaciones potenciales surge un conjunto único de dilemas éticos. Los beneficios de la IA en la guerra son una mayor precisión, una reducción de las bajas humanas e incluso una disuasión contra la entrada en un conflicto armado, similar a la amenaza de una guerra nuclear. Sin embargo, esto significaría darle a las máquinas la capacidad de tomar decisiones deliberadas de vida o muerte, desdibujando las líneas de responsabilidad y posiblemente yendo en contra de los principios fundamentales de la moralidad en la guerra.


Una breve descripción de la IA en la guerra

Como señala el Instituto Internacional de Investigación para la Paz de Estocolmo, la IA se ha convertido en una parte crucial de las estrategias y presupuestos militares, contribuyendo a una "carrera armamentista" más amplia[1]. Combinada con amenazas nucleares y atómicas, la geopolítica debe, por lo tanto, cuestionar la ética de la continua militarización de la tecnología. Algunos creen que estos avances conducirán en última instancia a que el pensamiento de suma cero domine la política mundial. Esta lógica no es nueva; Alfred Nobel esperaba que el poder destructivo de la dinamita pusiera fin a todas las guerras[2].


La IA ya ha comenzado a incorporarse a la tecnología bélica, como en enjambres de drones, misiles guiados y análisis logísticos. Los sistemas autónomos se han incorporado al armamento defensivo desde hace aún más tiempo, por ejemplo, las minas antivehículo y antipersonal. Los desarrollos futuros seguirán aspirando a niveles crecientes de autonomía. Estados Unidos está probando robots con inteligencia artificial que pueden volar por sí solos una versión modificada del avión de combate F-16; Rusia está probando tanques autónomos; y China también está desarrollando sus propias armas impulsadas por IA[3].


El objetivo es proteger la vida humana continuando mecanizando y automatizando los campos de batalla. “Puedo imaginar fácilmente un futuro en el que los drones superen considerablemente en número a las personas en las fuerzas armadas[3]”, dijo Douglas Shaw, asesor principal de Nuclear Threat Initiative. Entonces, en lugar de desplegar soldados en tierra, salvamos vidas subiéndolos a aviones y armándolos con misiles. Ahora, con la IA, los militares esperan salvar aún más vidas humanas de sus fuerzas.


Implicaciones morales de la IA en la guerra

Esto suena genial hasta ahora. Salva vidas usando IA para dirigir drones. Salva vidas usando IA para lanzar misiles. La diferencia entre este salto tecnológico en la guerra y las innovaciones pasadas es la falta de participación humana en la toma de decisiones. Con AWS y los sistemas de armas letales autónomas (LAWS), estamos entregando el poder de matar a un ser humano a un algoritmo que no tiene humanidad intuitiva.


Aquí surgen varias cuestiones éticas, morales y legales.


¿Es justo que se quiten vidas humanas en la guerra sin que haya otro ser humano al otro lado de esa acción? ¿Tiene el programador de un algoritmo en un LAWS la misma responsabilidad de representar a su país que un piloto de combate, y/o el mismo derecho a contribuir a quitar vidas al enemigo?


Al igual que con los dilemas éticos que rodean a los vehículos autónomos[4], ¿es moralmente justificable delegar decisiones de vida o muerte a algoritmos impulsados por IA? Desde un punto de vista tecnológico, esto dependerá en parte de la transparencia de la programación de AWS: entrenamiento, conjuntos de datos utilizados, preferencias codificadas y errores como sesgos en estos modelos. Incluso si alcanzamos un nivel adecuado de precisión y transparencia, ¿deberían considerarse morales los AWS y los LAWS en la guerra?


Implicaciones morales de la teoría de la guerra justa

La teoría de la guerra justa, atribuida a San Agustín y Tomás de Aquino en el siglo XIII[5], evalúa la moralidad de la guerra y la toma de decisiones éticas en los conflictos armados. Entre las directrices para el jus ad bellum (justicia de guerra) y el jus in bello (justicia en la guerra), las consideraciones más notables son:


  • Proporcionalidad: El uso de la fuerza debe ser proporcional al objetivo que se persigue y no debe causar daño o sufrimiento excesivo en relación con los beneficios previstos.
  • Discriminación: También conocido como inmunidad de no combatientes, este principio requiere que los combatientes distingan entre combatientes y no combatientes, y solo apunten a los primeros mientras minimizan el daño a los segundos.


Se podría argumentar que el uso de armas impulsadas por IA y LAWS no garantiza el cumplimiento de estas convenciones.


En términos de proporcionalidad, el armamento respaldado por IA tendría la capacidad de entregar fuerza con mayor velocidad, potencia y precisión que nunca. ¿Este nivel de fuerza coincidiría necesariamente con la amenaza planteada/el objetivo militar, especialmente si se usa contra un país con armamento menos avanzado tecnológicamente? De manera similar, ¿qué pasa si un LAWS recibe información errónea o alucina y crea una predicción inexacta? Esto podría llevar a la formación y ejecución de fuerza militar innecesaria y acciones desproporcionadas.


En cuanto a la discriminación, estas tecnologías no son 100% precisas. Al disparar un misil contra una fuerza enemiga, ¿qué sucede si las tecnologías de reconocimiento facial[6] no pueden distinguir a los civiles de los combatientes? Esto socavaría la distinción moral entre objetivos militares legítimos y espectadores inocentes.


Caso de estudio

Un grupo de expertos de la ONU informó sobre el posible uso de un LAWS - STM Kargu-2 - en Libia en 2020, desplegado por el ejército turco contra las Fuerzas Afiliadas a Haftar (HAF)[7]. Descritos como "programados para atacar objetivos sin requerir conectividad de datos entre el operador y la munición" [8], las unidades de drones finalmente fueron neutralizadas mediante interferencia electrónica. Sin embargo, la participación de esta tecnología aérea remota cambió el rumbo de lo que anteriormente había sido “un conflicto de baja intensidad y baja tecnología en el que evitar víctimas y proteger a la fuerza era una prioridad para ambas partes” [7].


Si bien causaron importantes víctimas, no está claro si los drones de ataque no tripulados causaron alguna muerte[8]. Aun así, destaca los problemas relacionados con el uso no regulado y no tripulado de vehículos aéreos de combate y drones.


Las unidades de la HAF no estaban entrenadas para defenderse de esta forma de ataque, no tenían protección contra los ataques aéreos (que ocurrieron a pesar de que los drones estaban fuera de línea) e incluso en retirada continuaron siendo acosadas por las LAWS. Esto por sí solo comienza a violar el principio de proporcionalidad, y más aún si se considera que los STM Kargu-2 cambiaron la dinámica del conflicto. Los informes llegan incluso a sugerir que “la introducción por parte de Turquía de tecnología militar avanzada en el conflicto fue un elemento decisivo en la… guerra desigual de desgaste que resultó en la derrota de las HAF en el oeste de Libia durante 2020”[7].


Cooperación internacional y regulación de la IA en aplicaciones militares

Desde 2018, el Secretario General de la ONU, António Guterres, ha sostenido que los SAAL son política y moralmente inaceptables[9]. En su Nueva Agenda para la Paz de 2023, Guterres ha pedido que esto se formalice y se ponga en práctica para 2026. En virtud de esto, sugiere una prohibición total del uso de AWS, que funciona sin supervisión humana y no cumple con el derecho internacional y la regulación de todos los demás AWS.


Este tipo de cooperación y regulación internacional será necesaria para ayudar a superar las preocupaciones éticas que hemos discutido. Por ahora, el uso de AWS sin supervisión humana provocará los problemas más inmediatos. La falta de una persona que tome decisiones crea problemas de responsabilidad. Sin una cadena de mando, ¿quién asume la responsabilidad del mal funcionamiento o la falibilidad general de un sistema impulsado por IA?


Además, se produciría una falta de rendición de cuentas. Especialmente en la guerra tradicional, donde existen principios morales definidos como la Teoría de la Guerra Justa, aquí no habría ningún agente culpable por las acciones tomadas por sistemas autónomos.


Finalmente, si bien la adopción cada vez mayor de la IA en aplicaciones militares tiene beneficios, la forma en que terminen utilizándose estas tecnologías definirá si se convierte en una solución utópica o en una proliferación de la ya políticamente desestabilizadora carrera armamentista.


Por lo tanto, la discusión continua sobre marcos internacionales legalmente vinculantes para garantizar la rendición de cuentas en la guerra de IA será posiblemente una de las áreas más cruciales de la regulación de la IA en el futuro cercano.



Referencias

  1. Armar la innovación: mapear la seguridad y la defensa basadas en la inteligencia artificial en la UE
  2. Guerra y tecnología - Instituto de Investigación de Política Exterior
  3. Cómo la IA revolucionará la guerra
  4. IA ética y vehículos autónomos: defender los principios morales en la era de los vehículos autónomos | HackerMediodía
  5. Teoría de la guerra justa | Enciclopedia de Filosofía de Internet
  6. Sesgo en la tecnología de reconocimiento facial: explore cómo los sistemas de reconocimiento facial pueden perpetuar los sesgos | HackerMediodía
  7. Libia, el uso de sistemas letales de armas autónomas | ¿Cómo protege la ley en la guerra? - Libro de casos en línea
  8. El dron de ataque autónomo Kargu-2: dimensiones legales y éticas - Lieber Institute West Point
  9. Sistemas de armas letales autónomas (LAWS) – UNODA