Nous nous rapprochons de la création d'une intelligence artificielle globale (AGI) capable de résoudre un large éventail de tâches à l'échelle humaine, voire au-delà. Mais l'humanité est-elle vraiment prête à accueillir une technologie capable de changer le monde de manière aussi profonde ? Pourrons-nous survivre aux côtés de l'AGI, ou la rencontre avec cette superintelligence sera-t-elle notre erreur finale ?
Explorons les scénarios que les scientifiques et les entrepreneurs envisagent aujourd'hui et essayons de comprendre : quelles sont les chances de survie de l'humanité si l'AGI devient une réalité ?
Les optimistes pensent que l'IAG peut et doit être créée sous un contrôle strict et qu'avec les précautions appropriées, cette intelligence peut devenir l'alliée de l'humanité, contribuant à résoudre les problèmes mondiaux, du changement climatique à la pauvreté. Des passionnés comme Andrew Ng, dans son article
Ces visions optimistes ont toutefois leurs limites. L’expérience acquise avec des systèmes d’IA plus petits mais néanmoins puissants montre que les gens n’ont pas encore pleinement confiance dans leur capacité à contrôler les objectifs de l’IA. Si l’IAG apprend à modifier ses propres algorithmes, cela pourrait conduire à des résultats impossibles à prévoir. Dans ce cas, quel sera notre choix : la soumission inconditionnelle aux systèmes ou la lutte constante pour le contrôle ?
Le philosophe Nick Bostrom, auteur de
Mais à quoi pourrait ressembler cette coopération dans la pratique ? Le Centre d'étude du risque existentiel (CSER) de l'Université de Cambridge
Le problème est que nous avons déjà vu un scénario similaire lors de la course aux armements nucléaires. Les désaccords politiques et la méfiance mutuelle entre les pays peuvent entraver la formation d’un consensus mondial sur la sécurité des systèmes IAGI. Et même si les nations s’entendent, seront-elles prêtes à assurer la surveillance à long terme que ces systèmes nécessiteraient ?
Les pessimistes, comme Elon Musk, estiment que les chances de survie de l'humanité avec la création de l'IAG restent alarmantes. Dès 2014, Musk
Ce scénario suggère un « piège de survie », où notre avenir dépend des décisions de l’IAG. Les pessimistes affirment que si l’IAG atteint un niveau de superintelligence et commence à optimiser ses objectifs de manière autonome, elle pourrait considérer l’humanité comme inutile, voire comme un obstacle. Le comportement imprévisible de l’IAG reste une préoccupation majeure : nous ne savons tout simplement pas comment un tel système se comporterait dans le monde réel, et nous pourrions ne pas être en mesure d’intervenir à temps s’il commençait à représenter une menace pour l’humanité.
Dans
Quels facteurs pourraient influencer nos chances de survie si l'IA générale devient une réalité ? Examinons quatre facteurs essentiels identifiés par les plus grands experts en matière de sécurité et d'éthique de l'IA.
Rapidité et qualité de préparation pour l'AGI
Stuart Armstrong, dans
Éthique et définition des objectifs
Dans
Coopération mondiale
Dans
Technologies de contrôle et d'isolement
Nick Bostrom, dans
L’idée de créer une intelligence artificielle globale soulève des questions profondes auxquelles l’humanité n’a jamais été confrontée auparavant : comment pouvons-nous vivre aux côtés d’une forme d’intelligence qui pourrait nous surpasser en termes de réflexion, d’adaptabilité et même de capacités de survie ? La réponse ne réside pas seulement dans la technologie, mais aussi dans la manière dont nous abordons la gestion de cette intelligence et notre capacité à coopérer à l’échelle mondiale.
Aujourd’hui, les optimistes voient l’IA générale comme un outil qui pourrait aider à résoudre les plus grands défis du monde. Ils citent des exemples d’IA restreinte qui aident déjà l’humanité dans des domaines comme la médecine, la science et la recherche climatique. Mais devons-nous croire que nous garderons toujours cette technologie sous contrôle ? Si l’IA générale devient véritablement indépendante, capable d’apprendre par elle-même et de modifier ses objectifs, elle pourrait dépasser les limites que nous essayons de fixer. Dans ce cas, tout ce que nous considérions autrefois comme utile et sûr pourrait devenir une menace.
L’idée de coopération mondiale, prônée par certains experts, s’accompagne également de nombreux défis. L’humanité pourra-t-elle surmonter ses différences politiques et économiques pour créer des principes et des normes de sécurité unifiés pour l’IAG ? L’histoire montre que les nations s’engagent rarement dans une coopération approfondie sur des questions qui ont un impact sur leur sécurité et leur souveraineté. Le développement des armes nucléaires au XXe siècle en est un parfait exemple. Mais avec l’IAG, les erreurs ou les retards pourraient être encore plus destructeurs, car cette technologie a le potentiel d’échapper à tout contrôle humain.
Et si les pessimistes avaient raison ? C’est là que réside le plus grand risque existentiel, une crainte soulevée par des gens comme Elon Musk et Yuval Noah Harari. Imaginez un système qui décide que la vie humaine n’est qu’une variable dans une équation, quelque chose qu’il peut modifier ou même éliminer au nom d’une voie « plus rationnelle ». Si un tel système considère que son existence et ses objectifs sont plus importants que les nôtres, nos chances de survie seraient minces. L’ironie est que l’IAG, conçue pour nous aider et résoudre des problèmes complexes, pourrait devenir la plus grande menace pour notre existence.
Pour l’humanité, ce chemin exige un nouveau niveau de responsabilité et de prévoyance. Serons-nous de ceux qui reconnaissent les conséquences de la création d’une IAG et établirons des mesures de sécurité strictes, guidant son développement pour le bien commun ? Ou l’orgueil et la réticence à suivre des règles communes nous conduiront-ils à créer une technologie sans retour en arrière ? Pour répondre à ces questions, nous avons besoin non seulement de percées techniques, mais aussi d’une compréhension profonde de l’idée même d’un système intelligent, de ses valeurs et de ses principes, de sa place dans notre société et de notre place dans son monde.
Quoi qu’il en soit, l’IAG pourrait bien être l’un des plus grands défis de l’histoire de l’humanité. La responsabilité de son résultat incombe à nous tous : scientifiques, décideurs politiques, philosophes et à chaque citoyen qui joue un rôle dans la reconnaissance et le soutien des efforts en faveur d’un avenir sûr.