paint-brush
Stratégies pour une gouvernance responsable de l’IApar@hackerclup7sajo00003b6s2naft6zw
673 lectures
673 lectures

Stratégies pour une gouvernance responsable de l’IA

par Priyanka Neelakrishnan10m2024/05/07
Read on Terminal Reader

Trop long; Pour lire

À mesure que l’influence de l’IA grandit, une gouvernance solide devient essentielle. De la distinction entre les modèles d'IA génératifs et discriminants à la mise en œuvre de cadres complets d'évaluation des risques et de conformité, la gouvernance de l'IA garantit la transparence, la sécurité des données et les pratiques éthiques de l'IA, jetant ainsi les bases des avantages à long terme et de la conformité réglementaire.
featured image - Stratégies pour une gouvernance responsable de l’IA
Priyanka Neelakrishnan HackerNoon profile picture
0-item
1-item


L’adoption généralisée de l’IA nécessite des garde-fous méthodiques pour régir, gérer et sécuriser son utilisation.


Ces derniers temps, le monde a été témoin d’une augmentation significative de l’utilisation de l’intelligence artificielle , imprégnant tous les aspects du paysage numérique. Du traitement automatisé aux algorithmes avancés, l’intelligence artificielle devient peu à peu partie intégrante de notre vie quotidienne et de nos opérations commerciales. L’utilisation des technologies d’intelligence artificielle dans diverses industries et secteurs augmente à une échelle et de manière exponentielle sans précédent. Cela a également eu de profondes répercussions sur la société, ainsi que des dangers et des risques pour les droits fondamentaux des individus.

Qu’est-ce que l’intelligence artificielle ?

L'intelligence artificielle (IA) est un vaste domaine englobant diverses techniques et approches d'apprentissage automatique, de logique et de connaissances pour créer des systèmes capables d'effectuer des tâches généralement effectuées par des humains ou nécessitant des capacités cognitives humaines. Cela inclut des tâches telles que le traitement du langage naturel, la reconnaissance d’images, la résolution de problèmes et la prise de décision. Conformément à la loi sur l'IA de l'Union européenne et au rapport de l'OCDE sur la gestion des risques liés à l'IA, un système d'IA est un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit des informations qu'il reçoit comment générer des résultats tels que des prédictions, du contenu, des recommandations, ou des décisions qui peuvent influencer les environnements physiques ou virtuels.


Il existe deux grandes classifications :

  • IA discriminante : ne peut effectuer que la classification des données. Exemple : régression logistique, k voisins les plus proches, machines à vecteurs de support et arbres de décision améliorés par gradient. Les architectures neuronales telles que les réseaux neuronaux convolutifs (CNN) et les unités de mémoire à long terme (LSTM) sont souvent utilisées pour créer des modèles discriminants de taille raisonnable pour des entrées très longues et de longueur variable.
  • IA générative : générer un nouveau contenu ressemblant au contenu sur lequel elle est formée. Exemple : réseaux contradictoires génératifs (GAN), modèles de diffusion et modèles autorégressifs.


Les GAN sont des cadres d'apprentissage automatique composés de deux réseaux de neurones, un générateur et un discriminateur. Le générateur génère des données en transformant le bruit aléatoire qui lui est transmis dans un format cible. Les producteurs ne peuvent à eux seuls évaluer la qualité de leur production. C'est là qu'intervient le modèle discriminateur. Le discriminateur vise à faire la différence entre les données réelles et les fausses données générées par le générateur. Les deux sont entraînés simultanément, le discriminateur étant entraîné à différencier les données réelles et les données du générateur, et le générateur étant entraîné à confondre le discriminateur en créant des données de plus en plus réalistes. Au fur et à mesure que la formation progresse, chaque modèle devient de plus en plus performant dans sa tâche, ce qui permet au générateur de créer un contenu réaliste. Le défi avec les GAN est de les former. Par exemple, les GAN peuvent subir un effondrement de modèle lors de la formation, au cours de laquelle le générateur n'apprend qu'à générer une petite variété d'échantillons, suffisante pour confondre le discriminateur, mais pas suffisante pour être utile. C'est là qu'intervient le modèle de diffusion. Essentiellement, les modèles de diffusion sont entraînés pour récupérer les données d'entraînement à partir de leurs versions en champ bruité. Après l'entraînement, la diffusion peut créer des images entièrement nouvelles à partir d'un bruit pur. Il construit de manière itérative une image grâce à un processus de débruitage progressif.


Ensuite, les modèles autorégressifs sont ancrés dans les statistiques. Il génère des séquences de données en modélisant la probabilité de l'élément suivant dans une séquence conditionnée par les éléments précédents. L'élément suivant est ensuite sélectionné au hasard dans cette distribution, l'utilisation d'un paramètre « température » peut rendre les résultats plus déterministes ou plus aléatoires, et le processus est répété. Les composants de réseaux neuronaux populaires pour les modèles autorégressifs incluent les LSTM et les transformateurs (qui permettent aux réseaux neuronaux d'apprendre des modèles dans de très grands volumes de données d'apprentissage de texte). Au lieu de simplement compléter une séquence qui lui est transmise, nous ajoutons une étape d'alignement aux modèles autorégressifs. Ici, le modèle est en outre entraîné à préférer certaines paires d'entrées-sorties à d'autres en fonction des commentaires humains. Par exemple, dans l'alignement des LLM, a enseigné avec succès aux modèles comment répondre aux questions et aux commandes (apprentissage par renforcement).


Principaux avantages de l'IA

  • Automatisation pour l'efficacité : automatisez les tâches répétitives, conduisant à une productivité et une efficacité opérationnelle accrues ;
  • Informations basées sur les données : extrayez des informations précieuses à partir de grands ensembles de données, offrant ainsi aux entreprises un avantage concurrentiel grâce à une prise de décision basée sur les données ;
  • Résolution créative de problèmes – générer des solutions et des idées innovantes, même lorsque des instructions ambiguës ou incomplètes leur sont fournies, améliorant ainsi la résolution de problèmes et la créativité ;
  • Création de contenu : produire du contenu de haute qualité rapidement et à grande échelle, bénéficiant au marketing de contenu, à la publicité et à l'engagement des clients ;
  • Prise de décision autonome : permet des niveaux de prise de décision autonome qui n'étaient pas possibles avec les générations précédentes d'IA.

Importance des données dans l'IA générative

Les données jouent un rôle central dans le développement de modèles d’IA génératifs, notamment les Large Language Models (LLM). Ces modèles s'appuient sur de grandes quantités de données pour la formation et le raffinement. Par exemple, ChatGPT d'OpenAI a été formé sur un vaste ensemble de données comprenant plus de 45 téraoctets de données textuelles collectées sur Internet, y compris des livres numérisés et des entrées Wikipédia. Cependant, le besoin considérable de collecte de données dans le cadre de l’IA générative peut soulever d’importantes préoccupations, notamment la collecte et l’utilisation par inadvertance de données personnelles sans le consentement des individus. Les chercheurs de Google AI ont également reconnu que ces ensembles de données, souvent volumineux et provenant de divers endroits, peuvent contenir des informations personnelles sensibles, même si elles proviennent de données accessibles au public.


Il existe globalement deux sources courantes de collecte de données :

  • Données accessibles au publicLe Web scraping est la méthode la plus couramment utilisée pour collecter des données. Cela implique d’extraire de grands volumes d’informations à partir de pages Web accessibles au public. Ces données sont ensuite utilisées à des fins de formation ou peuvent être réutilisées pour la vente ou mises gratuitement à la disposition d'autres développeurs d'IA. Les données obtenues grâce au web scraping incluent souvent des informations personnelles partagées par les utilisateurs sur les plateformes de médias sociaux telles que Facebook, Twitter, LinkedIn, Venmo et d'autres sites Web. Même si les individus peuvent publier des informations personnelles sur ces plateformes pour diverses raisons, comme se connecter avec des employeurs potentiels ou se faire de nouveaux amis, ils n’ont généralement pas l’intention que leurs données soient utilisées pour former des modèles d’IA génératifs.


  • Données utilisateur - Les données partagées par les utilisateurs avec des applications d'IA génératives, telles que les chatbots, peuvent être stockées et utilisées à des fins de formation à l'insu ou sans le consentement des personnes concernées. Par exemple, les utilisateurs interagissant avec des chatbots fournissant des conseils en matière de soins de santé, des thérapies, des services financiers et d'autres services peuvent divulguer des informations personnelles sensibles. Bien que ces chatbots puissent fournir des conditions de service mentionnant que les données des utilisateurs peuvent être utilisées pour « développer et améliorer le service », les critiques pourraient faire valoir que les modèles d'IA générative devraient obtenir le consentement affirmatif des utilisateurs ou fournir des informations claires sur la collecte, l'utilisation et la conservation des données. données d'utilisateur.


De nombreuses organisations ont également intégré des modèles d’IA générative dans leurs produits ou services pour améliorer leurs offres. Une telle intégration, dans certains cas, peut également servir de source de données, y compris les données personnelles des consommateurs, pour la formation et l'ajustement de ces modèles.


Les menaces potentielles comprennent :

  • Surveillance de masse non autorisée des individus et des sociétés
  • Violations inattendues et involontaires des informations personnelles des individus
  • Manipulation massive de données personnelles à des fins diverses
  • Génération de contrefaçons profondes d'individus crédibles et manipulatrices
  • Amplifier tout en masquant les influences des préjugés culturels, du racisme et des préjugés dans les résultats juridiques et socialement significatifs
  • Violation des principes de protection des données de limitation de la finalité, de limitation du stockage et de minimisation des données
  • Discrimination contre des groupes spécifiques d’individus et préjugés sociétaux
  • Désinformation et présentation d’informations factuellement inexactes
  • Violations de la propriété intellectuelle et du droit d'auteur


Gouvernance de l'IA

Alors que nous entrons dans une ère fortement influencée par les technologies d’IA générative, la gouvernance de l’intelligence artificielle devient une priorité de plus en plus vitale pour les entreprises qui souhaitent permettre une utilisation sûre des données et de l’IA tout en respectant les exigences juridiques et éthiques. En octobre 2023, l'utilisation « sûre, sécurisée et digne de confiance » de l'intelligence artificielle a justifié l'adoption d'un décret de l'administration Biden-Harris aux États-Unis, une publication qui a suivi de près l'AI Act de l'UE, la première loi globale sur l'IA au monde. loi dans les livres. D’autres pays, comme la Chine, le Royaume-Uni et le Canada, et même un certain nombre d’États américains, ont tracé leurs propres limites en proposant ou en promulguant une législation soulignant l’importance de la sûreté, de la sécurité et de la transparence dans l’IA.


Les chefs de produit et, en général, les dirigeants d’entreprise doivent adopter cet état d’esprit d’utilisation sécurisée de l’IA tout en intégrant l’IA dans leurs pratiques commerciales. Une gouvernance efficace de l’IA assure le contrôle et la surveillance, garantissant que les entreprises développent et gèrent leurs services d’IA de manière responsable, éthique et conforme aux politiques internes et aux réglementations externes, de manière documentée, efficace et démontrable. Cela permettra aux entreprises de maintenir la confiance et également d’accroître la responsabilité.


La gouvernance de l’IA fait référence à l’imposition de cadres, de règles, de normes, d’exigences juridiques, de politiques et de meilleures pratiques qui régissent, gèrent et surveillent l’utilisation de l’intelligence artificielle. Cela implique de diriger, gérer et surveiller les activités d’IA pour répondre aux exigences juridiques et éthiques. Sur le plan éthique, les entreprises doivent s’efforcer d’assurer un niveau élevé de transparence, de sûreté et de sécurité dans leurs modèles d’IA afin d’établir et de maintenir la confiance des clients. Sur le plan juridique, les entreprises doivent se conformer aux exigences légales et satisfaire les régulateurs, sous peine de sanctions financières substantielles et d’une réputation de marque ternie.


Les recherches de McKinsey estiment que l’IA générative pourrait contribuer entre 2 600 milliards et 4 400 milliards de dollars en valeur annuelle à l’avenir. Toutefois, pour réaliser ce potentiel, les organisations doivent mettre en œuvre l’IA de manière transparente, sécurisée et digne de confiance. En fait, Gartner suggère que les organisations qui réussissent à mettre en œuvre une IA sécurisée et fiable pourraient voir une augmentation de 50 % de leur adoption de l’IA et de la réalisation de leurs objectifs commerciaux.


Principaux moteurs de la gouvernance de l’IA dans les entreprises

Ceux-ci incluent les éléments suivants :

  • Innovation – La gouvernance de l’IA fournit un cadre structuré, mais flexible, qui encourage l’innovation responsable.
  • Efficacité : en standardisant et en optimisant le développement et le déploiement de l'IA, la gouvernance de l'IA permet aux entreprises de commercialiser plus rapidement leurs produits d'IA tout en réduisant les coûts.
  • Conformité : la gouvernance de l'IA aligne les solutions et la prise de décision en matière d'IA sur les réglementations du secteur et les normes juridiques mondiales. Cela garantit que les pratiques d’IA répondent aux exigences légales, réduisant ainsi les risques juridiques pour l’entreprise et renforçant sa conformité réglementaire.
  • Confiance – La gouvernance de l’IA se concentre sur la création de systèmes d’IA fiables et transparents. Cette pratique est cruciale pour préserver les droits et la satisfaction des clients tout en protégeant la valeur de la marque de l'organisation. Une IA digne de confiance améliore la confiance et la fidélité des clients tout en réduisant le risque de mesures réglementaires.


Un exemple de cadre de gouvernance de l'IA développé par Gartner est AI TRiSM - AI Trust, Risk, and Security Management framework qui se concentre sur l'atténuation des risques et l'alignement avec les lois sur la confidentialité des données dans l'utilisation de l'IA. Il repose sur quatre piliers : 1) Expliquabilité et surveillance du modèle - pour garantir la transparence et la fiabilité. 2) Opérations de modèles : implique le développement de processus et de systèmes pour gérer les modèles d'IA tout au long de leur cycle de vie. 3) Sécurité des applications d’IA – pour maintenir les modèles sécurisés et protégés contre les cybermenaces. 4) Confidentialité des modèles - pour protéger les données utilisées pour entraîner ou tester des modèles d'IA en gérant les flux de données conformément aux lois sur la confidentialité (objectif/limitations de stockage des données, principes de minimisation/protection des données). Dans l’ensemble, TRiSM est une approche visant à améliorer la fiabilité, la fiabilité, la sécurité et la confidentialité des modèles d’IA.


Actions à entreprendre pour une meilleure gouvernance de l’IA

  • Visibilité améliorée sur les systèmes d'IA : découvrez et cataloguez les modèles d'IA. L'objectif ici est de donner aux entreprises un aperçu complet et complet de leur utilisation de l'IA en identifiant et en enregistrant les détails de tous les modèles d'IA utilisés dans les cloud publics, les environnements privés et les applications tierces. Il couvre les objectifs des modèles, les données de formation, l'architecture, les entrées, les sorties et les interactions, y compris les modèles d'IA non documentés ou non autorisés. La création d'un catalogue centralisé de ces informations améliore la transparence, la gouvernance et l'utilisation efficace de l'IA, favorisant de meilleures décisions et une meilleure gestion des risques. C’est essentiel pour révéler la gamme complète des applications de l’IA et briser les silos opérationnels au sein de l’organisation.


  • Évaluation complète des risques : évaluez les risques et classez les modèles d'IA. L’objectif ici est d’évaluer les risques de leurs systèmes d’IA aux étapes de pré-développement et de développement et de mettre en œuvre des mesures d’atténuation des risques. Cela implique d'exploiter des cartes modèles qui offrent des évaluations de risques prédéfinies pour les modèles d'IA, y compris des descriptions de modèles, l'utilisation prévue, les limites et les considérations éthiques. Ces évaluations des risques fournissent des détails complets couvrant des aspects tels que la toxicité, la malveillance, les biais, les considérations en matière de droits d'auteur, les risques d'hallucination et même l'efficacité du modèle en termes de consommation d'énergie et de durée d'exécution d'inférence. Sur la base de ces évaluations, les organisations peuvent décider quels modèles approuver pour le déploiement et l'utilisation, quels modèles bloquer et quels modèles nécessitent des garde-fous supplémentaires avant leur consommation.


  • Pratiques de données transparentes : mappez et surveillez les données avec les flux d'IA. Les données circulent dans les systèmes d'IA à des fins de formation, de réglage et d'inférence, et les données sortent des systèmes d'IA en tant que sortie. Il permet aux entreprises de découvrir le contexte complet de leurs modèles et systèmes d’IA. Il s'agit de mapper les modèles et les systèmes d'IA avec les sources et systèmes de données associés, le traitement des données, les applications SaaS, les risques potentiels et les obligations de conformité. Cette cartographie complète permet aux équipes de confidentialité, de conformité, de sécurité et de données d'identifier les dépendances, d'identifier les points de défaillance potentiels et de garantir que la gouvernance de l'IA est proactive plutôt que réactive.


  • Contrôles de sécurité robustes : implémentez les données dans les contrôles IA. Il permet d’établir des contrôles stricts pour la sécurité et la confidentialité des données entrées et générées à partir des modèles d’IA. Ces contrôles incluent des contrôles de sécurité et de confidentialité des données mandatés respectivement par les cadres de sécurité et les lois sur la confidentialité. Par exemple, des techniques de rédaction ou d'anonymisation peuvent être appliquées afin de supprimer les valeurs identifiables des ensembles de données. Il garantit l’ingestion sécurisée des données dans les modèles d’IA, en conformité avec les politiques de données de l’entreprise et les droits des utilisateurs. Si des données sensibles se retrouvent dans les modèles LLM, les sécuriser devient extrêmement difficile. De même, si les données d’entreprise sont converties sous forme vectorielle, leur sécurisation devient plus difficile. Du côté de la génération et de la sortie des données, la protection des interactions de l’IA nécessite de se méfier des attaques externes, des utilisations internes malveillantes et des erreurs de configuration. Pour garantir des conversations sécurisées avec les assistants, les robots et les agents IA, des pare-feu LLM doivent être déployés pour filtrer les invites, récupérations et réponses nuisibles. Ces pare-feu devraient être capables de se défendre contre diverses vulnérabilités mises en évidence dans le Top 10 OWASP pour les LLM et dans les frameworks NIST AI RMF, notamment les attaques par injection rapide et les attaques par exfiltration de données.


  • Conformité diligente aux cadres réglementaires - se conformer aux réglementations. Les entreprises utilisant des systèmes d’IA doivent se conformer aux réglementations et normes spécifiques à l’IA ainsi qu’aux obligations de confidentialité des données liées à l’utilisation de l’IA. Pour rationaliser ce processus de conformité exigeant, les entreprises peuvent tirer parti d’une automatisation complète de la conformité adaptée à l’IA. Un tel système offre un large catalogue de réglementations et de cadres mondiaux en matière d’IA, notamment le NIST AI RMF et l’EU AI Act, entre autres. Il facilite la création de projets d'IA distincts dans son cadre permettant aux utilisateurs d'identifier et d'appliquer les contrôles nécessaires pour chaque projet. Ce processus comprend à la fois des contrôles et des évaluations automatisés qui nécessitent la contribution des parties prenantes, offrant ainsi une approche globale pour garantir la conformité.


Avantages de la mise en œuvre de la gouvernance de l'IA

Les entreprises qui mettent en œuvre avec succès la gouvernance de l’IA obtiendront

a) Transparence totale de leurs systèmes d'IA sanctionnés et non autorisés

b) Visibilité claire des risques liés à l’IA

c) Cartographie de l'IA et des données

d) Contrôles automatisés forts de l'IA et des données

e) Conformité aux réglementations mondiales en matière d'IA.


Dans l’ensemble, nous devons garantir une utilisation sûre de l’IA. Même si donner la priorité à la sécurité peut entraîner une légère baisse des bénéfices des entreprises à court terme, les avantages à moyen et long terme sont substantiels.