Au cours de l’année écoulée, les startups européennes d’IA ont rattrapé leurs concurrents étrangers et introduit des produits comparables au populaire ChatGPT. En mettant l’accent sur des avancées et un développement rapides, les questions de transparence, d’éthique et d’impact sur les utilisateurs sont parfois mises au second plan. Cependant, cela est susceptible de changer avec l’entrée en vigueur de la loi européenne sur l’IA, qui devrait entrer en vigueur fin 2024.
Le
La loi européenne sur l’IA classe les systèmes d’IA par niveaux de risque. Les systèmes étiquetés comme à haut risque devront respecter des exigences de transparence, avec des évaluations obligatoires des impacts potentiels sur la santé publique, la sécurité, les droits de l'homme et le bien-être sociétal. Leurs préjugés seront vérifiés pour garantir qu'ils sont non discriminatoires et respectueux des droits humains fondamentaux.
De plus, les développeurs de systèmes à haut risque seront tenus de conserver une documentation détaillée, y compris des méthodes de formation et des ensembles de données, pour démontrer leur conformité.
Les modèles de base comparables à GPT-3.5 seront réglementés s'ils nécessitent au moins 10²⁵ flops de puissance de calcul pour s'entraîner. A l’inverse, il y aura des concessions importantes concernant les modèles open source, ce qui incitera à développer ce type de produits.
De plus, la loi européenne sur l’IA répertorie les systèmes d’IA interdits. Cela inclut la catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, race, religion, etc.), le grattage d'images faciales, la reconnaissance des émotions sur le lieu de travail et dans l'éducation, la notation sociale, la manipulation du comportement humain et les systèmes conçus pour exploiter les vulnérabilités humaines.
La loi impose également des sanctions en cas de non-respect, allant de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires global d'une entreprise à 35 millions d'euros ou 7 % du chiffre d'affaires, selon l'infraction et la taille de l'entreprise.
La loi européenne sur l’IA étant susceptible d’entrer en vigueur fin 2024, il est important de commencer à se préparer dès maintenant, surtout si votre système est classé comme
Nous recommandons de se concentrer sur tous les aspects de la création d’un système, depuis la préparation des données jusqu’à l’évaluation approfondie du système.
Comme indiqué dans la loi européenne sur l’IA, les entreprises seront responsables de la tenue de registres détaillés des ensembles de données. Cela obligera les entreprises à respecter la confidentialité des données et à améliorer la traçabilité. Par exemple, si un système produit du contenu préjudiciable, il peut être attribué à des données inappropriées ou à des textes biaisés dans l'ensemble de données sur lequel il a été formé.
Cela signifie que les ensembles de données de formation doivent être examinés avec soin lors de la préparation des nouvelles règles. Cela pourrait impliquer de filtrer et de nettoyer certaines parties des données utilisées pour la formation ou même de créer des ensembles de données personnalisés organisés par domaine et spécialement conçus pour éviter les biais courants présents dans les données récupérées.
Pour se conformer aux nouvelles règles, les entreprises qui créent des LLM devraient investir dans l’alignement de leurs modèles sur les attentes humaines, en se concentrant sur la véracité, l’utilité et l’innocuité. Les principales méthodes utilisées pour l'alignement LLM sont
Les deux méthodes collectent les préférences humaines pour les résultats du modèle et utilisent ces données pour enseigner au modèle à quoi devrait ressembler le résultat souhaité. Nous pouvons stopper assez efficacement la majorité des créations de contenus préjudiciables à ce stade si nous fournissons au modèle les bons exemples.
L’évaluation des systèmes d’IA sera une priorité absolue et doit faire partie du cycle de développement de produits. Le sentiment d’avoir un bon modèle doit être remplacé par une stratégie d’évaluation minutieuse et approfondie.
Les systèmes d’IA générative sont particulièrement difficiles à évaluer car les résultats ne sont pas déterministes. Le texte généré ne peut pas être automatiquement comparé à une réponse « correcte ». L'évaluation de tels systèmes implique une rétroaction humaine axée sur une variété d'aspects tels que l'exactitude, l'utilité et l'innocuité.
Le plus souvent, les systèmes doivent être évalués au-delà des niveaux de base mentionnés ci-dessus. Par exemple, lors de l’évaluation de la nocivité, nous pourrions la diviser en catégories telles que les préjugés, les discours de haine, le racisme, etc. De cette façon, nous pourrions découvrir à un niveau granulaire ce qui doit être corrigé dans le système pour minimiser son impact négatif.
Il ne fait aucun doute que la loi européenne sur l’IA constitue une étape importante dans la réglementation de l’IA, et elle marque le début d’une nouvelle ère de l’IA, dans laquelle le développement responsable de l’IA n’est plus une option et sera désormais légalement appliqué.
Votre entreprise est-elle prête à se conformer aux nouvelles réglementations en matière d’IA ?