paint-brush
La administración Biden-⁠Harris elogia a las agencias federales por completar acciones clave de IA en 180 díasby@whitehouse
187

La administración Biden-⁠Harris elogia a las agencias federales por completar acciones clave de IA en 180 días

The White House6m2024/05/01
Read on Terminal Reader

La Administración Biden-Harris celebra la finalización exitosa de acciones clave de IA ordenadas por la Orden Ejecutiva del Presidente Biden, centrándose en la seguridad, la equidad, la innovación y la adquisición de talento de la IA. Las agencias federales informan de avances significativos en la gestión de los riesgos de la IA, la promoción de la equidad, el aprovechamiento de la IA para el bien y la contratación de talentos de la IA para funciones gubernamentales.
featured image - La administración Biden-⁠Harris elogia a las agencias federales por completar acciones clave de IA en 180 días
The White House HackerNoon profile picture
0-item

La administración Biden-⁠Harris anuncia acciones clave en materia de IA 180 días después de la histórica orden ejecutiva del presidente Biden

Hace seis meses, el presidente Biden emitió una Orden Ejecutiva histórica para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA). Desde entonces, agencias de todo el gobierno han tomado medidas vitales para gestionar los riesgos de seguridad de la IA, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y trabajadores, promover la innovación y la competencia, promover el liderazgo estadounidense en todo el mundo y más.


Hoy, las agencias federales informaron que completaron todas las acciones de 180 días en la EO a tiempo, luego de sus recientes éxitos al completar a tiempo cada acción de 90, 120 y 150 días. Las agencias también avanzaron en otros trabajos encomendados por la OE durante plazos más largos.


Las acciones que las agencias informaron hoy como completas incluyen las siguientes:


Gestión de riesgos para la seguridad y la protección:


Durante 180 días, la Orden Ejecutiva ordenó a las agencias abordar una amplia gama de riesgos de seguridad de la IA, incluidos los riesgos relacionados con materiales biológicos peligrosos, infraestructura crítica y vulnerabilidades de software. Para mitigar estas y otras amenazas a la seguridad, las agencias tienen:


  • Estableció un marco para la detección de la síntesis de ácidos nucleicos para ayudar a prevenir el uso indebido de la IA para diseñar materiales biológicos peligrosos. Este trabajo complementa un estudio en profundidad realizado por el Departamento de Seguridad Nacional (DHS), el Departamento de Energía (DOE) y la Oficina de Política Científica y Tecnológica sobre el potencial de la IA para ser utilizado indebidamente para este propósito, así como un informe del DHS que recomendaba mitigaciones para el uso indebido de la IA para exacerbar las amenazas químicas y biológicas. Paralelamente, el Departamento de Comercio ha trabajado para involucrar al sector privado en el desarrollo de orientación técnica para facilitar la implementación. A partir de 180 días después de que se anuncie el marco, las agencias exigirán que los beneficiarios obtengan ácidos nucleicos sintéticos de proveedores que realicen pruebas de detección.


  • Se publicaron para comentarios públicos borradores de documentos sobre la gestión de riesgos de IA generativa, el desarrollo seguro de sistemas de IA generativa y modelos básicos de doble uso, la ampliación del desarrollo de estándares internacionales en IA y la reducción de los riesgos que plantea el contenido generado por IA. Cuando estén finalizados, estos documentos del Instituto Nacional de Estándares y Tecnología (NIST) proporcionarán orientación adicional que se basa en el Marco de Gestión de Riesgos de IA del NIST, que ofreció a las personas, las organizaciones y la sociedad un marco para gestionar los riesgos de IA y ha sido ampliamente adoptado tanto en Estados Unidos y a nivel mundial.


  • Desarrolló las primeras pautas de seguridad de IA para propietarios y operadores de infraestructuras críticas. Estas directrices se basan en el trabajo completado de nueve agencias para evaluar los riesgos de la IA en los dieciséis sectores de infraestructura crítica.


  • Lanzó la Junta de Seguridad de IA para asesorar al Secretario de Seguridad Nacional, la comunidad de infraestructura crítica, otras partes interesadas del sector privado y el público en general sobre el desarrollo y la implementación seguros de la tecnología de IA en la infraestructura crítica de nuestra nación. Los 22 miembros inaugurales de la Junta incluyen representantes de una variedad de sectores, incluidos ejecutivos de empresas de software y hardware, operadores de infraestructura crítica, funcionarios públicos, la comunidad de derechos civiles y el mundo académico.


  • Se pusieron a prueba nuevas herramientas de inteligencia artificial para identificar vulnerabilidades en sistemas de software gubernamentales vitales. El Departamento de Defensa (DoD) avanzó en un piloto de IA que puede encontrar y abordar vulnerabilidades en software utilizado con fines militares y de seguridad nacional. Como complemento a los esfuerzos del Departamento de Defensa, el DHS puso a prueba diferentes herramientas para identificar y cerrar vulnerabilidades en otros sistemas de software gubernamentales críticos en los que los estadounidenses confían cada hora de cada día.


Defender a los trabajadores, los consumidores y los derechos civiles


La Orden Ejecutiva ordenó medidas audaces para mitigar otros riesgos de la IA (incluidos los riesgos para los trabajadores, los consumidores y los derechos civiles de los estadounidenses) y garantizar que el desarrollo y la implementación de la IA beneficien a todos los estadounidenses. Hoy, las agencias informaron que tienen:


  • Desarrollé principios y prácticas fundamentales para que los empleadores y desarrolladores construyan e implementen IA de manera segura y de manera que empoderen a los trabajadores. Agencias de todo el gobierno están comenzando a trabajar para establecer estas prácticas como requisitos, cuando corresponda y esté autorizado por la ley, para los empleadores que reciben fondos federales.


  • Publicó una guía para ayudar a los contratistas y empleadores federales a cumplir con las leyes de protección de los trabajadores mientras implementan IA en el lugar de trabajo. El Departamento de Trabajo (DOL) desarrolló una guía para que los contratistas y subcontratistas federales respondan preguntas y compartan prácticas prometedoras para aclarar las obligaciones legales de los contratistas federales, promover la igualdad de oportunidades de empleo y mitigar los impactos potencialmente dañinos de la IA en las decisiones laborales. El DOL también brindó orientación sobre la aplicación de la Ley de Normas Laborales Justas y otras normas laborales federales a medida que los empleadores utilizan cada vez más la IA y otras tecnologías automatizadas en el lugar de trabajo.


  • Se publicaron recursos para solicitantes de empleo, trabajadores y proveedores y creadores de tecnología sobre cómo el uso de la IA podría violar las leyes de discriminación laboral. Los recursos de la Comisión de Igualdad de Oportunidades en el Empleo aclaran que las leyes existentes aplican el uso de la IA y otras nuevas tecnologías en el empleo tal como se aplican a otras prácticas laborales.


  • Emitió una guía sobre el uso no discriminatorio de la IA en el sector de la vivienda. En dos documentos de orientación, el Departamento de Vivienda y Desarrollo Urbano afirmó que las prohibiciones existentes contra la discriminación se aplican al uso de la IA para la selección de inquilinos y la publicidad de oportunidades de vivienda, y explicó cómo los implementadores de herramientas de IA pueden cumplir con estas obligaciones.


  • Orientaciones y principios publicados que establecen barreras para el uso responsable y equitativo de la IA en la administración de programas de beneficios públicos. La guía del Departamento de Agricultura explica cómo los gobiernos estatales, locales, tribales y territoriales deben gestionar los riesgos del uso de la IA y los sistemas automatizados en programas de beneficios como SNAP. El Departamento de Salud y Servicios Humanos (HHS) publicó un plan con pautas sobre temas similares para los programas de beneficios que supervisa. Los documentos de ambas agencias prescriben acciones que se alinean con las políticas de la Oficina de Gestión y Presupuesto, publicadas el mes pasado, para que las agencias federales gestionen los riesgos en su propio uso de la IA y aprovechen sus beneficios.


  • Anunció una regla final que aclara que los requisitos de no discriminación en los programas y actividades de salud continúan aplicándose al uso de IA, algoritmos clínicos, análisis predictivos y otras herramientas. Específicamente, la regla aplica los principios de no discriminación bajo la Sección 1557 de la Ley de Atención Médica Asequible al uso de herramientas de apoyo a las decisiones de atención al paciente en la atención clínica, y requiere que aquellos cubiertos por la regla tomen medidas para identificar y mitigar la discriminación cuando usan IA y otras formas de herramientas de apoyo a la toma de decisiones en materia de atención.


  • Desarrolló una estrategia para garantizar la seguridad y eficacia de la IA implementada en el sector de la atención médica. La estrategia describe marcos rigurosos para las pruebas y evaluaciones de la IA, y describe acciones futuras para que el HHS promueva el desarrollo y la implementación responsable de la IA.


Aprovechar la IA para el bien


La Orden Ejecutiva del presidente Biden también dirigió el trabajo para aprovechar la enorme promesa de la IA, incluso promoviendo su uso para la investigación científica, profundizando la colaboración con el sector privado y probando usos de la IA. Durante los últimos 180 días, las agencias han hecho lo siguiente:


  • Anunció oportunidades de financiación del DOE para respaldar la aplicación de la IA para la ciencia , incluidos algoritmos y hardware de IA energéticamente eficientes.


  • Se prepararon reuniones para los próximos meses con empresas de servicios públicos, desarrolladores de energía limpia, propietarios y operadores de centros de datos y reguladores en localidades que experimentan un gran crecimiento de carga. Hoy, el DOE anunció nuevas acciones para evaluar las posibles oportunidades energéticas y los desafíos de la IA, acelerar el despliegue de energía limpia y promover la innovación en IA para gestionar la creciente demanda de energía de la IA.


  • Se lanzaron pilotos, asociaciones y nuevas herramientas de inteligencia artificial para abordar los desafíos energéticos y promover la energía limpia. Por ejemplo, el DOE está poniendo a prueba herramientas de inteligencia artificial para agilizar los procesos de obtención de permisos y mejorar la ubicación de infraestructuras de energía limpia, y ha desarrollado otras poderosas herramientas de inteligencia artificial con aplicaciones en la intersección de energía, ciencia y seguridad. Hoy, el DOE también publicó un informe que describe las oportunidades que ofrece la IA para avanzar en la economía de energía limpia y modernizar la red eléctrica.


  • Se inició un esfuerzo sostenido para analizar los riesgos potenciales que el despliegue de IA puede representar para la red. El DOE ha iniciado el proceso de convocar a las partes interesadas en el sector energético y a expertos técnicos durante los próximos meses para evaluar de forma colaborativa los riesgos potenciales para la red, así como las formas en que la IA podría potencialmente fortalecer la resiliencia de la red y nuestra capacidad para responder a las amenazas, construyendo a partir de un nuevo público. evaluación .


  • Fue autor de un informe sobre el papel de la IA en el avance de la investigación científica para ayudar a abordar los principales desafíos sociales, escrito por el Consejo Presidencial de Asesores en Ciencia y Tecnología.


Llevar el talento de la IA al gobierno


El Grupo de Trabajo de Talento Tecnológico y de Inteligencia Artificial ha logrado avances sustanciales en la contratación a través del AI Talent Surge. Desde que el presidente Biden firmó la EO, las agencias federales han contratado a más de 150 profesionales de IA y habilitadores de IA y, junto con los programas de talento tecnológico, están en camino de contratar a cientos para el verano de 2024. Las personas contratadas hasta ahora ya están trabajando en misiones críticas de IA. como informar sobre los esfuerzos para utilizar la IA para la obtención de permisos, asesorar sobre inversiones en IA en todo el gobierno federal y redactar políticas para el uso de la IA en el gobierno.




Esto se publicó originalmente el 29 de abril de 2024 en whitehouse.gov.