Il y a six mois, le président Biden a publié un décret historique pour garantir que l’Amérique montre la voie en saisissant les promesses et en gérant les risques de l’intelligence artificielle (IA). Depuis lors, les agences de l'ensemble du gouvernement ont pris des mesures vitales pour gérer les risques liés à la sûreté et à la sécurité de l'IA, protéger la vie privée des Américains, faire progresser l'équité et les droits civils, défendre les consommateurs et les travailleurs, promouvoir l'innovation et la concurrence, faire progresser le leadership américain dans le monde et plus.
Aujourd'hui, les agences fédérales ont indiqué qu'elles avaient réalisé toutes les actions de 180 jours de l'EO dans les délais, suite à leurs récents succès en accomplissant chaque action de 90 jours, 120 jours et 150 jours dans les délais. Les agences ont également progressé dans d’autres travaux confiés par l’EO sur des délais plus longs.
Les actions que les agences ont signalées aujourd'hui comme achevées sont les suivantes :
Gestion des risques pour la sûreté et la sécurité :
Pendant 180 jours, le décret a ordonné aux agences de faire face à un large éventail de risques liés à la sûreté et à la sécurité de l'IA, y compris les risques liés aux matières biologiques dangereuses, aux infrastructures critiques et aux vulnérabilités logicielles. Pour atténuer ces menaces et d’autres menaces à la sécurité, les agences ont :
Établissement d'un cadre pour le criblage de la synthèse des acides nucléiques afin d'aider à prévenir l'utilisation abusive de l'IA pour la conception de matériaux biologiques dangereux. Ce travail complète une étude approfondie menée par le Département de la sécurité intérieure (DHS), le Département de l'énergie (DOE) et le Bureau de la politique scientifique et technologique sur le potentiel d'utilisation abusive de l'IA à cette fin, ainsi qu'un rapport du DHS qui recommandait des mesures d'atténuation pour l’utilisation abusive de l’IA pour exacerber les menaces chimiques et biologiques. En parallèle, le ministère du Commerce s'est efforcé d'engager le secteur privé à élaborer des orientations techniques pour faciliter la mise en œuvre. À partir de 180 jours après l'annonce du cadre, les agences exigeront que les bénéficiaires obtiennent des acides nucléiques synthétiques auprès de fournisseurs effectuant le dépistage.
Publication pour consultation publique de projets de documents sur la gestion des risques liés à l'IA générative, le développement sécurisé de systèmes d'IA générative et de modèles de base à double usage, l'expansion du développement de normes internationales en matière d'IA et la réduction des risques posés par le contenu généré par l'IA. Une fois finalisés, ces documents du National Institute of Standards and Technology (NIST) fourniront des orientations supplémentaires qui s'appuient sur le cadre de gestion des risques liés à l'IA du NIST, qui offre aux individus, aux organisations et à la société un cadre pour gérer les risques liés à l'IA et qui a été largement adopté à la fois dans aux États-Unis et dans le monde.
Élaboration des premières lignes directrices en matière de sûreté et de sécurité en matière d'IA pour les propriétaires et les opérateurs d'infrastructures critiques. Ces lignes directrices s’appuient sur les travaux réalisés par neuf agences pour évaluer les risques liés à l’IA dans les seize secteurs d’infrastructures critiques.
Lancement du Conseil de sûreté et de sécurité de l'IA pour conseiller le secrétaire à la Sécurité intérieure, la communauté des infrastructures critiques, d'autres parties prenantes du secteur privé et le grand public sur le développement et le déploiement sûrs et sécurisés de la technologie de l'IA dans les infrastructures critiques de notre pays. Les 22 premiers membres du Conseil comprennent des représentants d'un large éventail de secteurs, notamment des dirigeants d'entreprises de logiciels et de matériel informatique, des opérateurs d'infrastructures critiques, des fonctionnaires, la communauté des droits civiques et des universitaires.
Pilotage de nouveaux outils d'IA pour identifier les vulnérabilités des systèmes logiciels vitaux du gouvernement. Le ministère de la Défense (DoD) a progressé sur un projet pilote d'IA capable de détecter et de corriger les vulnérabilités des logiciels utilisés à des fins de sécurité nationale et militaires. En complément des efforts du DoD, le DHS a piloté différents outils pour identifier et corriger les vulnérabilités d'autres systèmes logiciels gouvernementaux critiques sur lesquels les Américains comptent à chaque heure de chaque jour.
Défendre les travailleurs, les consommateurs et les droits civiques
Le décret ordonnait des mesures audacieuses pour atténuer d'autres risques liés à l'IA, notamment les risques pour les travailleurs, les consommateurs et les droits civils des Américains, et garantir que le développement et le déploiement de l'IA profitent à tous les Américains. Aujourd’hui, les agences ont indiqué avoir :
Développement de principes et de pratiques fondamentaux pour les employeurs et les développeurs afin de créer et de déployer l'IA en toute sécurité et de manière à responsabiliser les travailleurs. Les agences de tout le gouvernement commencent maintenant à travailler pour établir ces pratiques comme exigences, lorsque cela est approprié et autorisé par la loi, pour les employeurs qui reçoivent un financement fédéral.
Publication de directives pour aider les entrepreneurs fédéraux et les employeurs à se conformer aux lois sur la protection des travailleurs lorsqu'ils déploient l'IA sur le lieu de travail. Le ministère du Travail (DOL) a élaboré un guide destiné aux entrepreneurs et sous-traitants fédéraux pour répondre aux questions et partager des pratiques prometteuses afin de clarifier les obligations légales des entrepreneurs fédéraux, de promouvoir l'égalité des chances en matière d'emploi et d'atténuer les impacts potentiellement néfastes de l'IA dans les décisions d'emploi. Le DOL a également fourni des conseils concernant l’application de la Fair Labor Standards Act et d’autres normes fédérales du travail, alors que les employeurs utilisent de plus en plus l’IA et d’autres technologies automatisées sur le lieu de travail.
Publication de ressources destinées aux demandeurs d'emploi, aux travailleurs, ainsi qu'aux fournisseurs et créateurs de technologies sur la manière dont l'utilisation de l'IA pourrait enfreindre les lois sur la discrimination en matière d'emploi. Les ressources de la Commission pour l'égalité des chances en matière d'emploi précisent que les lois existantes appliquent l'utilisation de l'IA et d'autres nouvelles technologies dans l'emploi tout comme elles s'appliquent aux autres pratiques d'emploi.
Publication de lignes directrices sur l'utilisation non discriminatoire de l'IA dans le secteur du logement. Dans deux documents d'orientation, le ministère du Logement et du Développement urbain a affirmé que les interdictions existantes contre la discrimination s'appliquent à l'utilisation de l'IA pour la sélection des locataires et la publicité des opportunités de logement, et a expliqué comment les déployeurs d'outils d'IA peuvent se conformer à ces obligations.
Publication de lignes directrices et de principes qui établissent des garde-fous pour une utilisation responsable et équitable de l’IA dans l’administration des programmes d’intérêt public. Les directives du ministère de l'Agriculture expliquent comment les gouvernements des États, locaux, tribaux et territoriaux doivent gérer les risques liés à l'utilisation de l'IA et des systèmes automatisés dans les programmes d'avantages sociaux tels que SNAP. Le ministère de la Santé et des Services sociaux (HHS) a publié un plan contenant des lignes directrices sur des sujets similaires pour les programmes d'avantages sociaux qu'il supervise. Les documents des deux agences prescrivent des actions conformes aux politiques du Bureau de la gestion et du budget, publiées le mois dernier, permettant aux agences fédérales de gérer les risques liés à leur propre utilisation de l'IA et d'exploiter les avantages de l'IA.
Annonce d'une règle finale clarifiant que les exigences de non-discrimination dans les programmes et activités de santé continuent de s'appliquer à l'utilisation de l'IA, des algorithmes cliniques, de l'analyse prédictive et d'autres outils. Plus précisément, la règle applique les principes de non-discrimination de l'article 1557 de la loi sur les soins abordables à l'utilisation d'outils d'aide à la décision en matière de soins aux patients dans les soins cliniques, et elle exige que les personnes couvertes par la règle prennent des mesures pour identifier et atténuer la discrimination lorsqu'elles utilisent l'IA et d’autres formes d’outils d’aide à la décision pour les soins.
Élaboration d'une stratégie pour garantir la sécurité et l'efficacité de l'IA déployée dans le secteur des soins de santé. La stratégie décrit des cadres rigoureux pour les tests et l’évaluation de l’IA, et décrit les actions futures du HHS pour promouvoir le développement et le déploiement responsables de l’IA.
Exploiter l’IA pour de bon
Le décret du président Biden a également dirigé les travaux visant à saisir l'énorme promesse de l'IA, notamment en faisant progresser l'utilisation de l'IA pour la recherche scientifique, en approfondissant la collaboration avec le secteur privé et en pilotant les utilisations de l'IA. Au cours des 180 derniers jours, les agences ont effectué les opérations suivantes :
Annonce d'opportunités de financement du DOE pour soutenir l'application de l'IA à la science , y compris les algorithmes et le matériel d'IA économes en énergie.
Préparation de réunions pour les prochains mois avec des services publics, des développeurs d'énergie propre, des propriétaires et exploitants de centres de données et des régulateurs dans des localités connaissant une forte croissance de la charge. Aujourd'hui, le DOE a annoncé de nouvelles actions pour évaluer les opportunités et les défis énergétiques potentiels de l'IA, accélérer le déploiement de l'énergie propre et faire progresser l'innovation en matière d'IA pour gérer la demande énergétique croissante de l'IA.
Lancement de projets pilotes, de partenariats et de nouveaux outils d’IA pour relever les défis énergétiques et faire progresser l’énergie propre. Par exemple, le DOE teste des outils d’IA pour rationaliser les processus d’autorisation et améliorer l’emplacement des infrastructures d’énergie propre, et il a développé d’autres outils d’IA puissants avec des applications à l’intersection de l’énergie, de la science et de la sécurité. Aujourd'hui, le DOE a également publié un rapport décrivant les opportunités qu'offre l'IA pour faire progresser l'économie des énergies propres et moderniser le réseau électrique.
Lancement d’un effort soutenu pour analyser les risques potentiels que le déploiement de l’IA peut présenter pour le réseau. Le DOE a entamé le processus de réunion des parties prenantes de l'énergie et des experts techniques au cours des prochains mois pour évaluer en collaboration les risques potentiels pour le réseau, ainsi que les moyens par lesquels l'IA pourrait potentiellement renforcer la résilience du réseau et notre capacité à répondre aux menaces, en s'appuyant sur un nouveau public . évaluation .
Rédaction d'un rapport sur le rôle de l'IA dans l'avancement de la recherche scientifique pour aider à relever les défis sociétaux majeurs, rédigé par le Conseil présidentiel des conseillers en science et technologie
Faire entrer les talents en IA au sein du gouvernement
Le groupe de travail sur les talents en IA et en technologie a réalisé des progrès substantiels en matière de recrutement grâce à AI Talent Surge. Depuis que le président Biden a signé l'EO, les agences fédérales ont embauché plus de 150 professionnels de l'IA et des technologies propices à l'IA et, parallèlement aux programmes de talents technologiques, sont en passe d'en embaucher des centaines d'ici l'été 2024. Les personnes embauchées jusqu'à présent travaillent déjà sur des missions critiques d'IA, comme éclairer les efforts visant à utiliser l'IA pour l'obtention de permis, donner des conseils sur les investissements dans l'IA au sein du gouvernement fédéral et rédiger une politique pour l'utilisation de l'IA au sein du gouvernement.
Ceci a été initialement publié le 29 avril 2024 sur whitehouse.gov.