paint-brush
L’UE met un terme à l’IA non réglementéepar@konkiewicz
2,441 lectures
2,441 lectures

L’UE met un terme à l’IA non réglementée

par Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

Trop long; Pour lire

La loi européenne sur l’IA entrera en vigueur fin 2024. La loi classe les systèmes d’IA par niveaux de risque. Les systèmes à haut risque devront respecter les exigences de transparence. Les entreprises seront responsables de la conservation des enregistrements des données de formation. Cela obligera les entreprises à respecter la confidentialité des données et à améliorer la traçabilité.
featured image - L’UE met un terme à l’IA non réglementée
Magdalena Konkiewicz HackerNoon profile picture

L’impact mondial et comment s’y préparer

Introduction

Au cours de l’année écoulée, les startups européennes d’IA ont rattrapé leurs concurrents étrangers et introduit des produits comparables au populaire ChatGPT. En mettant l’accent sur des avancées et un développement rapides, les questions de transparence, d’éthique et d’impact sur les utilisateurs sont parfois mises au second plan. Cependant, cela est susceptible de changer avec l’entrée en vigueur de la loi européenne sur l’IA, qui devrait entrer en vigueur fin 2024.


Le Loi européenne sur l’IA approuvée par le Parlement européen en mars 2024 introduit une réglementation lourde sur l’IA développée au sein de l’UE. Cependant, son impact s’étend au-delà des frontières de l’Europe, influençant directement non seulement les entreprises européennes d’IA mais également les entreprises internationales, y compris celles des États-Unis, qui proposent leurs produits sur le marché européen.

Qui sera concerné ?

La loi européenne sur l’IA classe les systèmes d’IA par niveaux de risque. Les systèmes étiquetés comme à haut risque devront respecter des exigences de transparence, avec des évaluations obligatoires des impacts potentiels sur la santé publique, la sécurité, les droits de l'homme et le bien-être sociétal. Leurs préjugés seront vérifiés pour garantir qu'ils sont non discriminatoires et respectueux des droits humains fondamentaux.


De plus, les développeurs de systèmes à haut risque seront tenus de conserver une documentation détaillée, y compris des méthodes de formation et des ensembles de données, pour démontrer leur conformité.


Les modèles de base comparables à GPT-3.5 seront réglementés s'ils nécessitent au moins 10²⁵ flops de puissance de calcul pour s'entraîner. A l’inverse, il y aura des concessions importantes concernant les modèles open source, ce qui incitera à développer ce type de produits.


De plus, la loi européenne sur l’IA répertorie les systèmes d’IA interdits. Cela inclut la catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, race, religion, etc.), le grattage d'images faciales, la reconnaissance des émotions sur le lieu de travail et dans l'éducation, la notation sociale, la manipulation du comportement humain et les systèmes conçus pour exploiter les vulnérabilités humaines.


La loi impose également des sanctions en cas de non-respect, allant de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires global d'une entreprise à 35 millions d'euros ou 7 % du chiffre d'affaires, selon l'infraction et la taille de l'entreprise.

Comment se préparer ?

La loi européenne sur l’IA étant susceptible d’entrer en vigueur fin 2024, il est important de commencer à se préparer dès maintenant, surtout si votre système est classé comme risque élevé ou vous développez des modèles d’IA à usage général. Même si votre système n’est pas soumis à une réglementation stricte, il peut être intéressant d’investir dans le développement responsable de l’IA pour éviter des répercussions négatives sur les utilisateurs.


Nous recommandons de se concentrer sur tous les aspects de la création d’un système, depuis la préparation des données jusqu’à l’évaluation approfondie du système.

Attention particulière aux données de formation

Comme indiqué dans la loi européenne sur l’IA, les entreprises seront responsables de la tenue de registres détaillés des ensembles de données. Cela obligera les entreprises à respecter la confidentialité des données et à améliorer la traçabilité. Par exemple, si un système produit du contenu préjudiciable, il peut être attribué à des données inappropriées ou à des textes biaisés dans l'ensemble de données sur lequel il a été formé.


Cela signifie que les ensembles de données de formation doivent être examinés avec soin lors de la préparation des nouvelles règles. Cela pourrait impliquer de filtrer et de nettoyer certaines parties des données utilisées pour la formation ou même de créer des ensembles de données personnalisés organisés par domaine et spécialement conçus pour éviter les biais courants présents dans les données récupérées.

Méthodes d'alignement avec rétroaction humaine

Pour se conformer aux nouvelles règles, les entreprises qui créent des LLM devraient investir dans l’alignement de leurs modèles sur les attentes humaines, en se concentrant sur la véracité, l’utilité et l’innocuité. Les principales méthodes utilisées pour l'alignement LLM sont Apprentissage par renforcement à partir de la rétroaction humaine (RLHF) et Optimisation des préférences directes (DPO).


Les deux méthodes collectent les préférences humaines pour les résultats du modèle et utilisent ces données pour enseigner au modèle à quoi devrait ressembler le résultat souhaité. Nous pouvons stopper assez efficacement la majorité des créations de contenus préjudiciables à ce stade si nous fournissons au modèle les bons exemples.

Évaluation approfondie

L’évaluation des systèmes d’IA sera une priorité absolue et doit faire partie du cycle de développement de produits. Le sentiment d’avoir un bon modèle doit être remplacé par une stratégie d’évaluation minutieuse et approfondie.


Les systèmes d’IA générative sont particulièrement difficiles à évaluer car les résultats ne sont pas déterministes. Le texte généré ne peut pas être automatiquement comparé à une réponse « correcte ». L'évaluation de tels systèmes implique une rétroaction humaine axée sur une variété d'aspects tels que l'exactitude, l'utilité et l'innocuité.


Le plus souvent, les systèmes doivent être évalués au-delà des niveaux de base mentionnés ci-dessus. Par exemple, lors de l’évaluation de la nocivité, nous pourrions la diviser en catégories telles que les préjugés, les discours de haine, le racisme, etc. De cette façon, nous pourrions découvrir à un niveau granulaire ce qui doit être corrigé dans le système pour minimiser son impact négatif.

Résumé

Il ne fait aucun doute que la loi européenne sur l’IA constitue une étape importante dans la réglementation de l’IA, et elle marque le début d’une nouvelle ère de l’IA, dans laquelle le développement responsable de l’IA n’est plus une option et sera désormais légalement appliqué.


Votre entreprise est-elle prête à se conformer aux nouvelles réglementations en matière d’IA ?