paint-brush
La UE pone freno a la IA no reguladapor@konkiewicz
2,445 lecturas
2,445 lecturas

La UE pone freno a la IA no regulada

por Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

Demasiado Largo; Para Leer

La Ley europea de IA entrará en vigor a finales de 2024. La ley clasifica los sistemas de IA por niveles de riesgo. Los sistemas de alto riesgo deberán seguir requisitos de transparencia. Las empresas serán responsables de llevar registros de los datos de la formación. Esto obligará a las empresas a respetar la privacidad de los datos y mejorar la trazabilidad.
featured image - La UE pone freno a la IA no regulada
Magdalena Konkiewicz HackerNoon profile picture

El impacto mundial y cómo estar preparado

Introducción

Durante el año pasado, las nuevas empresas europeas de IA se pusieron al día con sus competidores extranjeros e introdujeron productos comparables al popular ChatGPT. Al centrarse en los avances y el desarrollo rápidos, las cuestiones relativas a la transparencia, la ética y el impacto en el usuario a veces quedan en un segundo plano. Sin embargo, es probable que esto cambie con la entrada en vigor de la Ley de IA de la UE, que debería comenzar a finales de 2024.


El Ley de IA de la UE aprobado por el Parlamento Europeo en marzo de 2024 introduce estrictas regulaciones sobre la IA desarrollada dentro de la UE. Sin embargo, su impacto se extiende más allá de las fronteras de Europa, influyendo directamente no sólo en las empresas europeas de IA sino también en las internacionales, incluidas las estadounidenses, que ofrecen sus productos en el mercado de la UE.

¿Quién se verá afectado?

La Ley de IA de la UE clasifica los sistemas de IA por niveles de riesgo. Los sistemas etiquetados como de alto riesgo deberán seguir requisitos de transparencia, con evaluaciones obligatorias de los posibles impactos en la salud pública, la seguridad, los derechos humanos y el bienestar social. Se comprobarán sus sesgos garantizando que no sean discriminatorios y respeten los derechos humanos fundamentales.


Además, los desarrolladores de sistemas de alto riesgo estarán obligados a mantener documentación detallada, incluidos métodos de capacitación y conjuntos de datos, para demostrar el cumplimiento.


Los modelos básicos comparables a GPT-3.5 se regularán si necesitan al menos 10²⁵ flops de potencia informática para entrenarse. Por el contrario, habrá importantes concesiones en relación con los modelos de código abierto, lo que incentivará el desarrollo de este tipo de productos.


Además, la Ley de IA de la UE enumera los sistemas de IA prohibidos. Esto incluye la categorización biométrica utilizando características sensibles (por ejemplo, raza, religión, etc.), extracción de imágenes faciales, reconocimiento de emociones educativas y en el lugar de trabajo, puntuación social, manipulación del comportamiento humano y sistemas diseñados para explotar las vulnerabilidades humanas.


La ley también impone sanciones por incumplimiento, con sanciones que varían desde 7,5 millones de euros o el 1,5% de la facturación global de una empresa hasta 35 millones de euros o el 7% de la facturación, dependiendo de la infracción y el tamaño de la empresa.

¿Cómo estar preparado?

Dado que es probable que la Ley Europea de IA entre en vigor a finales de 2024, es importante empezar a prepararse ahora, especialmente si su sistema está clasificado como alto riesgo o está desarrollando modelos de IA de uso general. Incluso si su sistema no está sujeto a una regulación estricta, puede valer la pena invertir en un desarrollo responsable de la IA para evitar repercusiones negativas en los usuarios.


Recomendamos centrarse en todos los aspectos de la construcción del sistema, desde la preparación de los datos hasta la evaluación en profundidad del sistema.

Mucha atención a los datos de entrenamiento

Como se describe en la Ley de IA de la UE, las empresas serán responsables de mantener registros detallados de los conjuntos de datos. Esto obligará a las empresas a respetar la privacidad de los datos y mejorar la trazabilidad. Por ejemplo, si un sistema produce contenido dañino, se puede rastrear hasta datos inapropiados o textos sesgados en el conjunto de datos en el que fue entrenado.


Esto significa que los conjuntos de datos de entrenamiento deben considerarse cuidadosamente al prepararse para las nuevas reglas. Esto podría implicar filtrar y limpiar partes de los datos utilizados para la capacitación o incluso crear conjuntos de datos personalizados seleccionados por dominios y construidos específicamente para evitar sesgos comunes presentes en los datos extraídos.

Métodos de alineación con retroalimentación humana

Para cumplir con las nuevas reglas, las empresas que crean LLM deben invertir en alinear sus modelos con las expectativas humanas, centrándose en la veracidad, la utilidad y la inocuidad. Los principales métodos utilizados para la alineación LLM son Aprendizaje reforzado a partir de la retroalimentación humana (RLHF) y Optimización de preferencias directas (DPO).


Ambos métodos recopilan las preferencias humanas por el resultado del modelo y utilizan estos datos para enseñarle al modelo cómo debería ser el resultado deseado. Podemos detener de manera bastante efectiva la mayoría de la creación de contenido dañino en esta etapa si proporcionamos al modelo los ejemplos correctos.

Evaluación en profundidad

La evaluación de los sistemas de IA será una máxima prioridad y debe convertirse en parte del ciclo de desarrollo de productos. La sensación de tener un buen modelo debe ser sustituida por una estrategia de evaluación meticulosa y profunda.


Los sistemas de IA generativa son particularmente difíciles de evaluar porque el resultado no es determinista. El texto generado no se puede comparar automáticamente con una respuesta "correcta". La evaluación de tales sistemas implica retroalimentación humana que se centra en una variedad de aspectos como la corrección, la utilidad y la inocuidad.


Más a menudo los sistemas necesitan ser evaluados más allá de los niveles básicos mencionados anteriormente. Por ejemplo, al evaluar la nocividad, podríamos dividirla en categorías como prejuicios, incitación al odio, racismo, etc. De esa manera, podríamos descubrir a un nivel granular qué es necesario corregir en el sistema para minimizar su impacto negativo.

Resumen

Sin duda, la Ley de IA de la UE es un paso importante en las regulaciones de IA y significa una nueva era de la IA, donde el desarrollo responsable de la IA ya no es una opción y ahora se hará cumplir legalmente.


¿Está su empresa preparada para cumplir con la nueva normativa de IA?