paint-brush
Plus de 2 000 chercheurs prédisent l’avenir de l’IApar@adrien-book
736 lectures
736 lectures

Plus de 2 000 chercheurs prédisent l’avenir de l’IA

par Adrien Book4m2024/04/17
Read on Terminal Reader

Trop long; Pour lire

Une enquête récente réalisée par AI Impacts, en collaboration avec des universités, met en évidence les prédictions d'experts sur les futures étapes de l'IA et les risques potentiels. Les experts prévoient des progrès significatifs en matière d’IA d’ici 2028, mais expriment des inquiétudes quant à l’interprétabilité de l’IA, à ses impacts sociétaux et aux risques existentiels. Les appels à une recherche accrue sur la sécurité de l’IA, à une réglementation mondiale et à un développement responsable de l’IA sont mis en avant pour exploiter les opportunités et les défis de l’IA pour un avenir meilleur.
featured image - Plus de 2 000 chercheurs prédisent l’avenir de l’IA
Adrien Book HackerNoon profile picture
0-item
1-item


Le rythme de développement de l’intelligence artificielle a atteint un crescendo naturel. Des outils tels que GPT-4 , Gemini , Claude , etc., et leurs créateurs prétendent tous pouvoir bientôt changer toutes les facettes de la société, des soins de santé et de l'éducation à la finance et au divertissement. Cette évolution rapide soulève des questions de plus en plus cruciales sur la trajectoire de l’IA : les avantages de la technologie, certes, mais aussi ( surtout ! ) les risques potentiels qu’elle fait peser sur nous tous.


Dans ces circonstances, écouter, comprendre et tenir compte des points de vue des experts devient crucial. Une enquête récente intitulée «  Des milliers d'auteurs d'IA sur l'avenir de l'IA » représente l'effort le plus approfondi visant à évaluer les opinions de ces spécialistes sur le potentiel de l'IA. Menée par Katja Grace et son équipe d' AI Impacts , en collaboration avec des chercheurs de l'Université de Bonn et de l'Université d'Oxford, l'étude a interrogé 2 778 chercheurs, cherchant leurs prédictions sur les progrès de l'IA et ses impacts sociaux. Tous ceux contactés avaient déjà rédigé des articles évalués par des pairs dans des lieux de premier plan en matière d’IA.


Points clés à retenir de l'avenir de l'étude sur l'IA

En bref, l'enquête met en évidence la complexité et l'ampleur des attentes et des préoccupations des chercheurs en IA concernant l'avenir de la technologie… et ses impacts sociétaux.


  • Les experts prédisent que l’IA franchira des étapes importantes dès 2028 : « comme le codage d’un site complet de traitement des paiements à partir de zéro et l’écriture de nouvelles chansons impossibles à distinguer des vraies par des artistes à succès tels que Taylor Swift ».


  • Une majorité significative des participants estiment également que les meilleurs systèmes d’IA atteindront probablement des capacités très remarquables au cours des deux prochaines décennies. Cela inclut la recherche de « moyens inattendus pour atteindre les objectifs » (82,3 %), le fait de parler « comme un expert humain sur la plupart des sujets » (81,4 %) et un comportement fréquent « d’une manière surprenante pour les humains » (69,1 %)​​.


  • En outre, le consensus suggère qu'il y a 50 % de chances que l'IA « surpasse » les humains dans toutes les tâches d'ici 2047, une projection qui a avancé de 13 ans par rapport aux prévisions faites un an plus tôt .


  • La probabilité que toutes les occupations humaines deviennent « entièrement automatisables » devrait désormais atteindre 10 % d’ici 2037 et 50 % d’ici 2116 (contre 2164 dans l’enquête de 2022 ).


Quand l’IA sera-t-elle capable de « faire » les tâches suivantes ?


  • L'enquête révèle un scepticisme quant à l'interprétabilité des décisions en matière d'IA, puisque seulement 20 % des personnes interrogées considèrent qu'il est probable que les utilisateurs seront capables de « comprendre les véritables raisons qui se cachent derrière les choix des systèmes d'IA » d'ici 2028​​. L’IA est (tristement célèbre) une boîte noire , et cette préoccupation reflète les défis réels et permanents en matière de transparence de l’IA. Ceci est particulièrement pertinent dans les applications critiques (finance, soins de santé…) où la compréhension de la prise de décision par l’IA est cruciale pour la confiance et la responsabilité.


  • L’étude souligne également des inquiétudes « importantes » concernant les potentiels impacts négatifs de l’IA. La diffusion de fausses informations, la manipulation de l’opinion publique et les utilisations autoritaires de l’IA suscitent, sans surprise, de vives inquiétudes​​. Les appels à des mesures proactives pour atténuer ces dangers sont rares aujourd’hui, et c’est un problème .


Degré de préoccupation que méritent les scénarios potentiels, classé du plus préoccupant au moins extrême.


  • Il existe un large éventail d'opinions sur les impacts à long terme de l'intelligence artificielle de haut niveau, une partie notable des personnes interrogées attribuant des probabilités non nulles à des résultats à la fois extrêmement bons et extrêmement mauvais, y compris l'extinction humaine. C'est un scientifique qui dit « nous ne savons pas ce qui va se passer ensuite ». Mais… entre 38 % et 51 % des personnes interrogées donnent au moins 10 % de chances qu’une IA avancée conduise à des conséquences aussi néfastes que l’extinction humaine , ce qui semble être quelque chose que nous devrions surveiller.


  • Enfin, il existe un désaccord sur la question de savoir si des progrès plus rapides ou plus lents de l’IA seraient meilleurs pour l’avenir de l’humanité. Cependant, une majorité des personnes interrogées plaident en faveur d'une priorité plus grande à la recherche sur la sécurité de l'IA qu'elle ne l'est actuellement, reflétant un consensus croissant sur l'importance de s'attaquer aux risques existentiels de l'IA et d'assurer son développement et son déploiement en toute sécurité.


Que faisons-nous de ces informations ?

La voie à suivre est assez claire : les gouvernements du monde entier doivent augmenter le financement de la recherche sur la sécurité de l’IA et développer des mécanismes solides pour garantir que les systèmes d’IA s’alignent sur les valeurs et les intérêts humains actuels et futurs.


Le gouvernement britannique a récemment annoncé un financement de plus de 50 millions de livres sterling pour une série de projets liés à l'intelligence artificielle , dont 30 millions de livres sterling pour la création d'un nouvel écosystème d'IA responsable. L’idée est de créer des outils et des programmes garantissant des applications responsables et fiables des capacités de l’IA.


Parallèlement, l’administration Biden-Harris a annoncé début 2024 la création du Consortium américain de l’AI Safety Institute (AISIC), réunissant plus de 200 parties prenantes de l’IA, dont des leaders de l’industrie, des universitaires et de la société civile. Ce consortium vise à soutenir le développement et le déploiement d'une IA sûre et fiable en élaborant des lignes directrices pour l'équipe rouge, les évaluations de capacités, la gestion des risques et d'autres mesures de sécurité critiques.


Il s’agit d’un début, mais il s’agit là d’un début trop national.


Les gouvernements ne peuvent pas se contenter de regarder leur propre cour aujourd’hui. Nous devons également mettre en œuvre des réglementations INTERNATIONALES pour guider le développement et le déploiement éthiques des technologies d’IA, en garantissant la transparence et la responsabilité. Cela implique de favoriser les collaborations interdisciplinaires et INTERNATIONALES entre les chercheurs, les éthiciens et les décideurs politiques en IA. Je me sentirai plus en sécurité dans le monde lorsque je verrai les mesures suivantes être mises en œuvre pour renforcer et améliorer les cadres existants en matière de droits de l'homme :


  • Cadres mondiaux de sécurité de l’IA
  • Sommets internationaux sur la sécurité de l'IA
  • Fonds mondiaux de recherche sur l’éthique et la sécurité de l’IA.


Trop tôt pour tirer des conclusions

Il est peut-être un peu tôt pour tomber dans le cataclysme. Bien que l'enquête fournisse des informations précieuses, elle présente des limites, notamment des biais potentiels dus à l'autosélection des participants et le défi ( évident ! ) de prévoir avec précision les progrès technologiques. Des recherches plus approfondies devraient viser à élargir la diversité des perspectives et à explorer les implications du développement de l’IA dans des secteurs spécifiques.


En fin de compte, et quelle que soit l’exactitude des prédictions faites, nous avons besoin de plus que des mots. L’IA est une source à la fois d’opportunités sans précédent et de défis importants. Grâce à un dialogue ouvert entre les chercheurs, les décideurs politiques et le public, nous devons créer des règles pour nous protéger du danger de l’IA et nous orienter vers un avenir meilleur pour tous .


Le monde est très grand et nous sommes très petits. Bonne chance là-bas.