paint-brush
L'éthique de l'IA dans la guerre moderne : équilibrer l'innovation et la responsabilité moralepar@nimit
12,727 lectures
12,727 lectures

L'éthique de l'IA dans la guerre moderne : équilibrer l'innovation et la responsabilité morale

par Nimit6m2024/04/06
Read on Terminal Reader

Trop long; Pour lire

Cet article se penche sur les dilemmes éthiques posés par l’utilisation de l’IA dans la guerre, en examinant les implications des systèmes d’armes autonomes et leur impact sur les stratégies militaires. Il met en balance les avantages d’une précision accrue et d’une réduction des pertes humaines avec les préoccupations morales liées à la délégation de décisions de vie ou de mort à des machines et les défis liés à l’adhésion aux principes de la théorie de la guerre juste. L’article traite également des efforts internationaux en matière de réglementation et de responsabilité dans les applications militaires basées sur l’IA.
featured image - L'éthique de l'IA dans la guerre moderne : équilibrer l'innovation et la responsabilité morale
Nimit HackerNoon profile picture
0-item

L'intelligence artificielle (IA ) continue de se développer en tant que force de transformation dans de nombreuses sphères de la vie, commençant déjà à révolutionner les industries et à remodeler notre façon de vivre et de travailler. Le sujet de l’IA dans la guerre nécessitera une attention croissante de la part des gouvernements, des décideurs politiques et des organisations internationales. Cela est dû en grande partie aux progrès significatifs dans le développement de systèmes d’armes autonomes (AWS), qui utilisent des algorithmes pour fonctionner de manière indépendante et sans supervision humaine sur le champ de bataille. Plus largement, l’IA sous ses nombreuses formes a le potentiel d’améliorer toute une série d’activités militaires, depuis la robotique et l’armement jusqu’à la collecte de renseignements et la prise de décision.


Une telle diversité d’applications potentielles s’accompagne d’un ensemble unique de dilemmes éthiques. Les avantages de l’IA dans la guerre sont une précision accrue, une réduction des pertes humaines et même une dissuasion contre l’entrée dans un conflit armé, semblable à la menace d’une guerre nucléaire. Cependant, cela reviendrait à donner aux machines la capacité de prendre des décisions délibérées de vie ou de mort, ce qui brouillerait les lignes de responsabilité et pourrait même aller à l’encontre des principes fondamentaux de la moralité en matière de guerre.


Un bref aperçu de l'IA dans la guerre

Comme le souligne l'Institut international de recherche sur la paix de Stockholm, l'IA est devenue un élément crucial des stratégies et des budgets militaires, contribuant ainsi à la « course aux armements » plus large[1]. Combinée aux menaces nucléaires et atomiques, la géopolitique doit donc remettre en question l’éthique de la militarisation continue de la technologie. Certains pensent que ces progrès conduiront à terme à une pensée à somme nulle qui dominera la politique mondiale. Cette logique n’est pas nouvelle ; Alfred Nobel espérait que le pouvoir destructeur de la dynamite mettrait fin à toutes les guerres[2].


L’IA a déjà commencé à être intégrée à la technologie de guerre, comme dans les essaims de drones, les missiles guidés et l’analyse logistique. Les systèmes autonomes sont intégrés depuis plus longtemps encore aux armements défensifs, par exemple aux mines antivéhicules et antipersonnel. Les développements futurs continueront d’aspirer à des niveaux croissants d’autonomie. Les États-Unis testent des robots IA capables de piloter eux-mêmes une version modifiée du chasseur F-16 ; La Russie teste des chars autonomes ; et la Chine développe également ses propres armes alimentées par l’IA[3].


L’objectif est de protéger la vie humaine en continuant à mécaniser et automatiser les champs de bataille. « Je peux facilement imaginer un avenir dans lequel les drones seraient considérablement plus nombreux que les effectifs des forces armées[3] », a déclaré Douglas Shaw, conseiller principal à la Nuclear Threat Initiative. Ainsi, au lieu de déployer des soldats sur le terrain, nous avons sauvé des vies en les plaçant dans des avions et en les armant de missiles. Désormais, grâce à l’IA, les militaires espèrent épargner encore plus de vies humaines.


Implications morales de l'IA dans la guerre

Cela semble génial jusqu'à présent. Sauvez des vies en utilisant l’IA pour diriger les drones. Sauvez des vies en utilisant l'IA pour lancer des missiles. La différence entre ce saut technologique dans la guerre et les innovations passées réside dans le manque de contribution humaine à la prise de décision. Avec AWS et les systèmes d’armes létales autonomes (LAWS), nous confions le pouvoir de tuer un être humain à un algorithme qui n’a aucune humanité intuitive.


Plusieurs problèmes éthiques, moraux et juridiques se posent ici.


Est-il juste que des vies humaines soient supprimées en temps de guerre sans qu’un autre être humain ne soit de l’autre côté de cette action ? Le programmeur d'un algorithme dans un LAWS a-t-il la même responsabilité de représenter son pays en tant que pilote de chasse, et/ou le même droit de contribuer à tuer l'ennemi ?


Comme pour les dilemmes éthiques entourant les véhicules autonomes[4], est-il moralement justifiable de déléguer des décisions de vie ou de mort à des algorithmes basés sur l’IA ? D'un point de vue technologique, cela dépendra en partie de la transparence de la programmation d'AWS : formation, ensembles de données utilisés, préférences codées et erreurs comme les biais, dans ces modèles. Même si nous atteignons un niveau adéquat d’exactitude et de transparence, AWS et LAWS devraient-ils être considérés comme moraux dans la guerre ?


Implications morales de la théorie de la guerre juste

La théorie de la guerre juste, attribuée à saint Augustin et à Thomas d’Aquin au XIIIe siècle[5], évalue la moralité de la guerre et la prise de décision éthique dans les conflits armés. Parmi les lignes directrices concernant le jus ad bellum (justice de guerre) et le jus in bello (justice en temps de guerre), les considérations les plus notables sont les suivantes :


  • Proportionnalité : Le recours à la force doit être proportionné à l’objectif poursuivi et ne doit pas causer de préjudice ou de souffrance excessive par rapport aux bénéfices escomptés.
  • Discrimination : également connu sous le nom d'immunité des non-combattants, ce principe exige que les combattants fassent la distinction entre combattants et non-combattants, et ciblent uniquement les premiers tout en minimisant les dommages causés aux seconds.


On pourrait faire valoir que l’utilisation d’armes alimentées par l’IA et les LOIS ne garantissent pas le respect de ces conventions.


En termes de proportionnalité, les armes basées sur l’IA posséderaient la capacité de fournir une force avec une vitesse, une puissance et une précision plus grandes que jamais. Ce niveau de force correspondrait-il nécessairement à la menace posée/à l’objectif militaire, surtout s’il était utilisé contre un pays doté d’un armement moins avancé technologiquement ? De la même manière, que se passe-t-il si un LAWS reçoit des informations erronées, ou s'il hallucine et crée une prédiction inexacte ? Cela pourrait conduire à la formation et à l’exécution d’une force militaire inutile et à des actions disproportionnées.


En matière de discrimination, ces technologies ne sont pas précises à 100 %. Lors du tir d’un missile sur une force ennemie, que se passe-t-il si les technologies de reconnaissance faciale[6] ne parviennent pas à distinguer les civils des combattants ? Cela porterait atteinte à la distinction morale entre les cibles militaires légitimes et les spectateurs innocents.


Étude de cas

Un groupe d'experts de l'ONU a signalé l'utilisation possible d'un LAWS - STM Kargu-2 - en Libye en 2020, déployé par l'armée turque contre les forces affiliées à Haftar (HAF)[7]. Décrits comme étant « programmés pour attaquer des cibles sans nécessiter de connectivité de données entre l’opérateur et la munition » [8], les drones ont finalement été neutralisés par brouillage électronique. L’implication de cette technologie aérienne à distance a cependant changé le cours de ce qui était auparavant « un conflit de faible intensité et de faible technologie dans lequel la prévention des pertes et la protection des forces étaient une priorité pour les deux parties »[7].


Bien qu’ils aient causé des pertes importantes, il n’est pas clair si les drones d’attaque sans pilote ont causé des morts[8]. Néanmoins, cela met en évidence les problèmes liés à l’utilisation non réglementée et sans pilote de véhicules aériens et de drones de combat.


Les unités de la HAF n'étaient pas entraînées à se défendre contre cette forme d'attaque, n'avaient aucune protection contre les attaques aériennes (qui se produisaient malgré le fait que les drones étaient hors ligne) et, même en retraite, continuaient d'être harcelées par les LAWS. Cela suffit à constituer une violation du principe de proportionnalité, et ce d’autant plus que les STM Kargu-2 ont modifié la dynamique du conflit. Les rapports vont jusqu’à suggérer que « l’introduction par la Turquie de technologies militaires avancées dans le conflit a été un élément décisif dans la… guerre d’usure inégale qui a abouti à la défaite des HAF dans l’ouest de la Libye en 2020 »[7].


Coopération internationale et réglementation de l’IA dans les applications militaires

Depuis 2018, le secrétaire général de l’ONU, António Guterres, affirme que les LOIS sont politiquement et moralement inacceptables[9]. Dans son Nouvel Agenda pour la paix de 2023, Guterres a appelé à ce que cela soit formalisé et mis en œuvre d’ici 2026. Dans ce cadre, il suggère une interdiction complète de l’utilisation d’AWS qui fonctionne sans surveillance humaine et n’est pas conforme au droit international, ainsi qu’une réglementation des tous les autres AWS.


Ce type de coopération et de réglementation internationales sera nécessaire pour aider à surmonter les préoccupations éthiques dont nous avons discuté. Pour l’instant, l’utilisation d’AWS sans surveillance humaine entraînera les problèmes les plus immédiats. L’absence de décideur humain crée des problèmes de responsabilité. Sans chaîne de commandement, qui assume la responsabilité du dysfonctionnement ou de la faillibilité générale d’un système alimenté par l’IA ?


De plus, cela entraînerait un manque de responsabilité. Surtout dans la guerre traditionnelle où il existe des principes moraux définis comme la théorie de la guerre juste, il n’y aurait ici aucun agent coupable des actions entreprises par les systèmes autonomes.


Enfin, même s’il y a des avantages à adopter de plus en plus l’IA dans les applications militaires, la manière dont ces technologies seront finalement utilisées déterminera si cela deviendra une solution utopique ou une prolifération d’une course aux armements déjà politiquement déstabilisante.


Par conséquent, la poursuite des discussions sur les cadres internationaux juridiquement contraignants visant à garantir la responsabilité dans la guerre de l’IA sera sans doute l’un des domaines les plus cruciaux de la réglementation de l’IA dans un avenir proche.



Les références

  1. Armer l’innovation : cartographier la sécurité et la défense basées sur l’intelligence artificielle dans l’UE
  2. Guerre et technologie - Institut de recherche en politique étrangère
  3. Comment l'IA va révolutionner la guerre
  4. IA éthique et véhicules autonomes : défendre les principes moraux à l'ère des voitures autonomes | HackerMidi
  5. Théorie de la guerre juste | Encyclopédie Internet de la philosophie
  6. Biais dans la technologie de reconnaissance faciale : explorez comment les systèmes de reconnaissance faciale peuvent perpétuer les préjugés | HackerMidi
  7. Libye, l'utilisation de systèmes d'armes autonomes létaux | Comment le droit protège-t-il en temps de guerre ? - Recueil de cas en ligne
  8. Le drone d'attaque autonome Kargu-2 : dimensions juridiques et éthiques - Lieber Institute West Point
  9. Systèmes d’armes létales autonomes (LAWS) – UNODA