paint-brush
Les États-Unis mènent les efforts mondiaux en matière de gouvernance et de confiance en IA et dévoilent un code de conduite internationalby@whitehouse
706
706

Les États-Unis mènent les efforts mondiaux en matière de gouvernance et de confiance en IA et dévoilent un code de conduite international

The White House4m2024/05/14
Read on Terminal Reader

Les États-Unis dirigent les efforts internationaux en matière de gouvernance de l’IA, en établissant des cadres tels que le Code de conduite international et la Déclaration de Bletchley pour garantir un développement sûr et transparent de l’IA. Grâce à des partenariats et à des initiatives, les États-Unis favorisent une utilisation responsable de l’IA et font progresser les normes mondiales pour des technologies d’IA fiables.
featured image - Les États-Unis mènent les efforts mondiaux en matière de gouvernance et de confiance en IA et dévoilent un code de conduite international
The White House HackerNoon profile picture

Vous pouvez accéder à n'importe quelle partie de la stratégie internationale des États-Unis en matière de cyberespace et de politique numérique ici . Cette partie est 19 sur 38.

Axe d'effort 2 : Promouvoir une compréhension commune de la confiance, des normes d'interopérabilité, des valeurs partagées et des principes de gouvernance pour les technologies critiques et émergentes

L’un des défis les plus urgents en matière de solidarité numérique consiste à développer des approches communes pour gouverner les technologies critiques et émergentes telles que l’IA. La vitesse de l’innovation, l’ampleur de la concurrence et les enjeux pour nos valeurs, notre sécurité et notre prospérité exigent une action concertée. Avec les technologies de l’IA, nous n’aurons pas le luxe du temps ni la poursuite d’intérêts étroits qui ont souvent ralenti notre capacité à développer des principes communs et des approches réglementaires interopérables dans d’autres secteurs de l’économie numérique.


L’élaboration de valeurs communes et de principes de gouvernance concernant le développement, le déploiement et l’utilisation de l’IA est de plus en plus au cœur de la diplomatie numérique américaine. Les États-Unis engagent leurs alliés, partenaires, le secteur privé, la société civile, la communauté technique et d'autres parties prenantes dans les discussions du G7, du Partenariat mondial sur l'intelligence artificielle, du Conseil de l'Europe, de l'OCDE, de l'ONU, de l'UNESCO et d'autres forums pour gérer les risques de l’IA et veiller à ce que ses avantages soient largement distribués. En outre, nous devrons travailler ensemble pour investir dans la recherche scientifique et dans l’infrastructure nécessaire pour mesurer, évaluer et vérifier les systèmes technologiques avancés d’IA.


En juillet 2023, le président Biden a annoncé les engagements volontaires de sept grandes entreprises d’IA pour faire progresser le développement sûr, sécurisé et transparent de la technologie de l’IA. Huit autres entreprises (dont une société basée à l’étranger) ont signé ces engagements en septembre. Les États-Unis ont internationalisé et élargi leurs engagements volontaires dans le cadre du processus d’IA du G7 d’Hiroshima dirigé par le Japon pour lutter contre l’IA générative, les dirigeants publiant un Code de conduite international pour les organisations développant des systèmes d’IA avancés en octobre 2023. Nous continuons de travailler à élargir l’acceptation de le Code de conduite par davantage de pays et d’entreprises au-delà des pays membres du G7.


Les États-Unis se sont joints à vingt-sept autres pays lors du Sommet britannique sur la sécurité de l’IA et ont signé la Déclaration de Bletchley, qui encourage la transparence et la responsabilité des acteurs développant des technologies d’IA de pointe. Les États-Unis et le Royaume-Uni ont également signé un protocole d’accord entre leurs instituts respectifs de sécurité de l’IA, visant à faire progresser la science de la mesure, de l’évaluation et de la gestion des risques liés à l’IA, première étape vers un consensus mondial sur les fondements scientifiques de la sécurité de l’IA. Ces efforts définissent le rôle des gouvernements nationaux, promeuvent la coopération internationale et encouragent l'innovation en fournissant des lignes directrices techniquement rigoureuses pour l'introduction d'une technologie d'IA sûre, sécurisée et fiable. Dans le même temps, l’USAID et plusieurs autres donateurs internationaux de développement ont conclu un partenariat pour promouvoir un développement sûr, sécurisé et fiable de l’IA dans les pays à revenu faible ou intermédiaire d’Afrique et d’autres régions du monde.


Principes d'Hiroshima pour l'IA générative


En octobre 2023, le président Biden a publié un décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle. Ce décret établit un processus pour élaborer de nouvelles normes en matière de sûreté et de sécurité de l'IA et vise à protéger la vie privée des citoyens, à promouvoir l'innovation et la concurrence, ainsi qu'à faire progresser l'équité et les droits de l'homme. L’Ordre a chargé le Département d’État de renforcer le leadership américain à l’étranger sur les questions liées à l’IA. Le Département d'État et l'USAID, en collaboration avec le Département du Commerce, mènent un effort visant à établir un guide de l'IA dans le développement mondial afin d'exploiter les avantages de l'IA et de gérer ses risques. Dans le même ordre d’idées, le Département d’État prévoit de diriger un groupe de travail interinstitutions sur la détection, l’authentification et l’étiquetage des contenus synthétiques, qui vise à faciliter le partage d’informations et à mobiliser des engagements mondiaux pour à la fois étiqueter les contenus authentiques produits par le gouvernement et détecter les contenus synthétiques. En outre, en collaboration avec le Département de la Sécurité intérieure (DHS), le Département d'État engage des partenaires internationaux pour aider à prévenir, répondre et se rétablir en cas de perturbations potentielles des infrastructures critiques résultant de l'intégration de l'IA dans les systèmes d'infrastructures critiques ou de l'utilisation malveillante. de l’IA contre ces systèmes. Le Département d'État et l'USAID travaillent également avec des partenaires interinstitutionnels, notamment le National Institute of Standards and Technology (NIST), la National Science Foundation (NSF) et le Department of Energy, pour développer un cadre de gestion des risques liés aux droits de l'homme pour l'IA et un cadre mondial de gestion des risques liés aux droits de l'homme pour l'IA. Programme de recherche sur l’IA.


Le Département d’État s’efforce également de mobiliser un large soutien en faveur de la Déclaration politique sur l’utilisation militaire responsable de l’IA et de l’autonomie. Même si d’importantes discussions sont en cours à Genève dans le cadre de la Convention sur certaines armes classiques (CCW) – que les États-Unis continueront de soutenir – la portée de ces discussions ne couvre qu’une seule utilisation militaire possible de l’IA, à savoir les systèmes d’armes autonomes. La Déclaration politique constitue le premier effort visant à articuler les principes et les meilleures pratiques couvrant toutes les applications militaires des technologies de l’IA.



Continuez la lecture ici .


Cet article a été initialement publié le 6 mai 2024par le Département d'État américain.