paint-brush
L'IA dans la guerre : progrès, préoccupations éthiques et avenir de la technologie militairepar@chinechnduka
1,939 lectures
1,939 lectures

L'IA dans la guerre : progrès, préoccupations éthiques et avenir de la technologie militaire

par Chinecherem Nduka8m2023/03/01
Read on Terminal Reader

Trop long; Pour lire

L'intelligence artificielle se développe maintenant rapidement et son utilisation dans l'armée a considérablement modifié la façon dont le combat est engagé. L'une des avancées les plus importantes dans la guerre de l'IA est l'utilisation de véhicules aériens sans pilote (UAV), souvent appelés drones. Les avantages de l'IA dans la guerre sont indéniables, mais il existe également des préoccupations et des questions éthiques quant à l'impact de cette technologie.
featured image - L'IA dans la guerre : progrès, préoccupations éthiques et avenir de la technologie militaire
Chinecherem Nduka HackerNoon profile picture
0-item
1-item


L'infrastructure militaire mondiale subit des modifications majeures et un taux élevé de développement technologique. Lorsque le président des États-Unis, Joe Biden, a déclaré :


"Nous allons voir plus de changements technologiques au cours des 10 prochaines années que nous n'en avons vu au cours des 50 dernières."


Il faisait référence à l'évidence flagrante. L'intelligence artificielle se développe maintenant rapidement et son utilisation dans l'armée a considérablement modifié la façon dont le combat est engagé. Ce que l'on considérait autrefois comme de la science-fiction est maintenant une réalité en train de se défaire. Ce domaine technologique bouleverse tout, des drones aux armements autonomes en passant par les algorithmes décisionnels et les systèmes de surveillance.


Kai-Fu Lee, ancien président de Google Chine et PDG de Sinovation Ventures dans son livre « AI 2041 : Ten Visions for Our Future », a déclaré :


"L'armement autonome est la troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires."


Dans ses mots,


"L'évolution des mines terrestres vers les missiles guidés n'était qu'un prélude à une véritable autonomie permise par l'IA - l'engagement total de tuer : rechercher, décider d'engager et anéantir une autre vie humaine, complètement sans implication humaine."


Bien que les avantages de l'IA dans la guerre soient indéniables, il existe également des préoccupations et des questions éthiques quant à l'impact de cette technologie sur l'avenir des conflits militaires, mais d'abord, une plongée dans les progrès réalisés jusqu'à présent.


Progrès dans la guerre de l'IA

Selon un SCR (Service des rapports du Congrès) rapport , les États-Unis et leurs rivaux, la Chine et la Russie, intègrent actuellement une IA étroite dans plusieurs applications militaires. Certaines de ces applications sont le commandement et le contrôle, la logistique, les cyberopérations, le renseignement, la surveillance et la reconnaissance, ainsi que les véhicules semi-autonomes et autonomes.


Actuellement, l'une des avancées les plus importantes dans la guerre de l'IA est l'utilisation de véhicules aériens sans pilote (UAV), souvent appelés drones. Ces véhicules ont été largement utilisés dans les opérations militaires de reconnaissance, de collecte de renseignements et de frappes ciblées.


Au cours de la dernière escalade du Haut-Karabakh conflit en 2020, la technologie de l'IA a joué un rôle plus important. La flotte de drones employés dans le conflit disposait d'un afflux d'autonomie et de capacités de surveillance. Un autre conflit entre Israël et le Hamas en mai 2021 connu sous le nom de « Opération Gardien des Murs, » est un autre exemple de l'application de l'IA à la guerre. L'armée israélienne a utilisé l'apprentissage automatique et le supercalcul pour cibler les lance-roquettes et les tunnels du Hamas. C'est ce qu'on appelle la première guerre de l'intelligence artificielle.


La poursuite du conflit entre la Russie et l'Ukraine a également révélé des utilisations inédites de drones alimentés par l'IA au combat. Alors que Russie utilise l'IA pour améliorer l'efficacité de ses drones et de la guerre électronique contre les soldats ukrainiens, l'IA aide également Ukraine en légitime défense en aidant à détecter les activités ennemies et en améliorant son propre armement. Dans l'ensemble, ceux-ci ont tous fourni des preuves claires de la façon dont les champs de bataille sont transformés par des machines compatibles avec l'IA qui sortent des chaînes de montage du monde entier.


Il y a quelques années, un court métrage dystopique illustrant ce qu'un type de drone alimenté par l'IA (appelé abattagebots) peut faire a été partagé par le Future of Life Institute sur son site Web. À l'époque, ce n'étaient que des projections. Mais aujourd'hui, ces armes autonomes mortelles améliorées par l'IA, parfois appelées « robots tueurs », sont désormais utilisées sur le champ de bataille.


Le Les Nations Unies documenté le premier cas de son utilisation dans la vie réelle en Libye en mars 2021. En une courte période cette même année, Le premier cas connu d'un système contrôlé par l'IA essaim de drones a été observée en Israël. Selon un rapport de Nouveau scientifique .


Ces dernières années, la technologie des drones est devenue plus sophistiquée, avec des algorithmes d'IA leur permettant de prendre des décisions basées sur l'analyse de données en temps réel. Selon Jyoti Sinha, CTO chez Omnipresent Robot Technologies.


"Dans la guerre tactique, les drones en essaim alimentés par l'IA peuvent effectuer simultanément la destruction et le démantèlement de plusieurs cibles en utilisant des configurations d'essaim précises et une localisation en vol stationnaire même lorsque moins de sophistication est disponible avec un équipement de défense guidé... Tout en ciblant les lignes de front ennemies, même si certains des drones sont attaqué, les algorithmes cognitifs d'IA interviennent et reconfigurent le positionnement du réseau de drones pour maintenir la connaissance de la situation et aider à l'achèvement de la mission.


Quelques exemples de ces armes autonomes activées par l'IA incluent le Bayraktar TB2 de fabrication turque qui possède à la fois des capacités d'attaque armée et de renseignement, de surveillance et de reconnaissance (ISR) et le Zala Lancent par Kalachnikov qui prétend figurer "détection et reconnaissance intelligentes d'objets par classe et type" à l'aide d'algorithmes de vision par ordinateur.


Bayraktar TB2


Zala Lancet par Kalachnikov


Boeing a également dévoilé en 2020, ce qu'il a appelé le premier avion Wingman fidèle conçu pour voler et combattre bien sûr de manière autonome aux côtés d'avions avec équipage comme des avions de chasse. Son nom, Loyal Wingman, vient de la description que l'entreprise en fait d'un "allié fidèle".


Bien que ces développements dans l'application de l'intelligence artificielle à la technologie militaire aient leurs avantages, on craint qu'ils n'entraînent une perte de contrôle sur les opérations militaires et n'aient des répercussions imprévues.


Préoccupations éthiques

La rapidité des progrès enregistrés dans le domaine de la technologie militaire soulève des questions éthiques quant à leur application à la fois dans la guerre et en dehors de la guerre. Par exemple, tandis que l'intelligence artificielle peut être utilisée dans la surveillance et la collecte de renseignements , aidant à identifier les menaces potentielles et à prévenir les attaques, il existe également un risque qu'il puisse être utilisé pour surveiller et contrôler les populations civiles, entraînant des violations des droits de l'homme et de la vie privée .


La possibilité que les systèmes d'IA fonctionnent mal ou soient compromis, avec des résultats indésirables ou même désastreux, est également l'une des plus grandes préoccupations, en plus des problèmes de responsabilité de ces systèmes, en particulier lorsque les armes autonomes doivent choisir qui attaquer et quand le faire. .


Dans un récent document intitulé "Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie", le département d'État américain a appelé les pays développant l'IA à utiliser la technologie dans les opérations militaires d'une manière moralement et responsablement acceptable.


Le gouvernement américain prétend convenir que l'utilisation de l'intelligence artificielle (IA) dans l'armée peut et doit être éthique, responsable et renforcer la sécurité mondiale, mettant ainsi en place son propre cadre et invitant d'autres nations à se joindre à l'accord. Le même jour, la proclamation a été publié, un "appel à l'action" prônant l'utilisation responsable de l'intelligence artificielle (IA) dans l'armée a été signé par plus de 60 pays, dont le plus grand rival des États-Unis, la Chine.


Cependant, des inquiétudes ont été exprimées quant à savoir jusqu'où la déclaration peut aller pour maintenir la technologie militaire dans les limites de la moralité, car on ne sait pas exactement quels types de systèmes autonomes ou alimentés par l'IA sont inclus dans la déclaration. Reuter ont signalé qu'en plus de ne pas aborder des questions telles que les drones guidés par l'IA, les "slaughterbots" qui peuvent tuer sans intervention humaine, ou la possibilité qu'une IA puisse exacerber une confrontation militaire, des experts des droits de l'homme et des universitaires ont souligné que la déclaration n'était pas juridiquement contraignante .


Une autre préoccupation est le rôle des humains dans la prise de décision sur le champ de bataille et le potentiel de l'IA à déshumaniser la guerre et à la rendre plus destructrice. L'idée que des machines aient la liberté et la capacité de prendre la vie humaine est moralement odieuse, selon le Secrétaire général des Nations Unies António Guterres. Dans un déclaration publié sur le site Web des Nations Unies en septembre 2018, s'est-il exclamé,


"Les impacts des nouvelles technologies sur la guerre sont une menace directe à notre responsabilité commune de garantir la paix et la sécurité."


Après l'invasion russe de l'Ukraine en février 2022, quatre ans plus tard, nous voyons à la fois les craintes devenir réelles et la réalisation de telles prophéties commencer à se faire sentir. Selon un Rapport d'initié , la crise ukrainienne a vu plus d'utilisation de drones améliorés par l'IA que dans toute autre bataille récente. En l'état, les deux Russie et Ukraine ont utilisé la technologie autonome les uns contre les autres dans la guerre en cours.


La Russie, par exemple, utilise des "munitions vagabondes" comme le Russain Lanset et iranien Shahed-136 également appelé Geranium-2 . Familièrement appelés drones «kamikazes», ces munitions orbitent autour d'un emplacement spécifié jusqu'à ce qu'elles détectent une catégorie de cible prédéterminée, puis s'écrasent sur l'objet, faisant exploser l'explosif. L'Ukraine, quant à elle, a déployé un drone de fabrication turque, Bayraktar TB2 , qui fonctionne de manière autonome sauf lorsqu'il s'agit de décider quand larguer les bombes à guidage laser qu'il transporte.


António Guterres estime qu'une surveillance moindre de ces munitions pose un grand défi, car elle compromet les tentatives d'atténuation des menaces, de prévention de l'escalade et de respect du droit international humanitaire et des droits de l'homme. Dans un lettre ouverte aux Nations Unies, le PDG de Tesla, Elon Musk, et 115 autres experts ont fait des suggestions qui ont mis en évidence des préoccupations éthiques concernant l'utilisation de ces armes autonomes. Selon la lettre,


« Les armes létales autonomes menacent de devenir la troisième révolution dans la guerre. Une fois développés, ils permettront aux conflits armés d'être combattus à une échelle plus grande que jamais et à des échelles de temps plus rapides que les humains ne peuvent comprendre. Il peut s'agir d'armes de terreur, d'armes que les despotes et les terroristes utilisent contre des populations innocentes, et d'armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer.


L'avenir de la technologie militaire

En plus des préoccupations susmentionnées, on ne sait pas quel effet la technologie de l'IA aura sur la politique mondiale et la stabilité géopolitique dans un avenir proche. Cependant, le développement de la technologie militaire, selon analystes , pourrait déclencher une nouvelle course aux armements alors que les gouvernements et les organisations militaires investissent massivement dans la recherche et le développement dans ce domaine, généralement dans le but d'obtenir un avantage militaire. Bien que les États-Unis, la Chine et la Russie semblent mener cette course, l'avenir semble encore incertain et complexe.


Recherche par ML Cummings convient que les robots militaires et commerciaux finiront par incorporer "l'intelligence artificielle (IA) qui pourrait les rendre capables d'entreprendre des tâches et des missions par eux-mêmes, mais a également noté qu'il faudra de nombreuses années avant que l'IA ne puisse se rapprocher de l'humain l'intelligence dans des situations à haute incertitude en raison de la lutte actuelle pour imprégner les ordinateurs de véritables connaissances et de comportements basés sur des experts, ainsi que des limites des capteurs de perception.


Lors du sommet mondial sur les technologies émergentes de la Commission de sécurité nationale sur l'intelligence artificielle, le secrétaire américain à la Défense, Lloyd J. Austin remarqué ,


"L'IA est au cœur de notre programme d'innovation, nous aidant à calculer plus rapidement, à mieux partager et à tirer parti d'autres plateformes. Et c'est fondamental pour les combats du futur.


Le département américain de la Défense, a-t-il déclaré, investira environ 1,5 milliard de dollars au cours des cinq prochaines années dans le but d'accélérer l'adoption de l'IA. Experts , cependant, estiment que l'armée américaine progresse lentement, surtout si l'objectif est de suivre la Chine, qui, selon rapport , investit chaque année plus de 1,6 milliard de dollars dans la technologie militaire. La Chine a déclaré en 2017 qu'elle avait l'intention de devenir le leader mondial de l'intelligence artificielle (IA) d'ici 2030, et elle le fait maintenant en termes de publications et de brevets de recherche dans le domaine.


La Russie, en revanche, a déclaré l'IA une priorité nationale et a lancé plusieurs initiatives pour développer et déployer des applications d'IA. Le président russe, Vladimir Poutine, via une vidéo en direct, a déclaré :


"L'intelligence artificielle est l'avenir, non seulement pour la Russie mais pour toute l'humanité, celui qui devient le leader dans ce domaine deviendra le maître du monde."


Bien qu'elle dépense moins pour la défense que les États-Unis et la Chine, la Russie s'est fixé pour objectif d'avoir 30 pour cent d'équipements automatisés militaires d'ici 2025 dans le cadre d'un programme de modernisation de la défense initié en 2008.


Il existe différentes opinions et prédictions sur qui gagnera la course aux armements de l'IA, mais en fin de compte, cela et l'avenir de l'IA tel qu'il s'applique à la guerre, en général, ne sont pas clairement prévisibles. Cependant, la distinction entre la science-fiction et la réalité pratique a peut-être commencé à s'estomper. Analystes attendez-vous à ce que la technologie de l'intelligence artificielle augmente considérablement la puissance militaire, ce qui façonnera probablement la nature et la dynamique des conflits dans les années à venir. Que l'IA nous utilise dans une ère d'utopie ou de dystopie, seul le temps nous le dira.