paint-brush
Voici comment OpenAI perpétue des stéréotypes malsainspar@msnaema
1,380 lectures
1,380 lectures

Voici comment OpenAI perpétue des stéréotypes malsains

par Naema Baskanderi4m2022/10/10
Read on Terminal Reader
Read this story w/o Javascript

Trop long; Pour lire

Il y a eu beaucoup de buzz à propos d'OpenA GPT-3, qui possède maintenant le plus grand réseau de neurones. Cela signifie-t-il que le problème de l'IA a été résolu ? Si nous ne faisons pas attention, OpenAI créera des préjugés contre l'âge, le sexe, la race, etc. Les informations qui entrent dans l'IA doivent être filtrées, sinon les stéréotypes nuisibles ne seront jamais effacés.
featured image - Voici comment OpenAI perpétue des stéréotypes malsains
Naema Baskanderi HackerNoon profile picture
0-item


Il y a eu beaucoup de buzz à propos d'OpenAI GPT-3, qui possède maintenant le plus grand réseau de neurones. Cela signifie-t-il que le problème de l'IA a été résolu ? Oui, il dispose d'un grand ensemble de données, mais nous ne savons toujours pas comment il apprend.

Principes de base d'OpenAI

OpenAI Inc est une branche à but non lucratif d'Open.AI LP dont le but est de créer une « IA conviviale » qui profitera à l'humanité.


Open.AI a plusieurs offres différentes :

  1. DALL•E 2 - un système d'IA capable de créer des images réalistes et de l'art à partir d'une description en langage naturel
  2. GPT-3 - Generative Pre-trained Transformer est un modèle de langage qui tire parti de l'apprentissage en profondeur pour générer un texte de type humain
  3. InstructGPT - un modèle mis à jour qui produit moins de langage offensant et moins d'erreurs dans l'ensemble, mais peut également générer de la désinformation
  4. CLIP - Pré-formation Langage Contrastif-Image. Il reconnaît les concepts visuels dans les images et les associe à leurs noms.


Comment les modèles sont-ils formés ?

OpenAI GPT-3 est formé sur 500 milliards de mots en utilisant les ensembles de données suivants :

  1. L'ensemble de données Common Crawl contient des données recueillies au cours de plus de 8 années d'exploration Web
  2. WebText2 est le texte des pages Web de tous les liens Reddit sortants des messages avec plus de 3 votes positifs
  3. Books 1 & Books2 sont deux corpus de livres sur Internet
  4. Pages Wikipédia en anglais


Répartition des ensembles de données et distribution de la formation

Base de données

Jetons

Poids à l'entraînement

Exploration commune

410 milliards

60%

WebText2

19 milliards

22%

Livres1

12 milliards

8%

Livres2

55 milliards

8%

Wikipédia

3 milliards

3%


Les modèles de formation peuvent être réalisés en utilisant les méthodes suivantes :


Peu de coups (FS). C'est là que nous donnons entre 10 et 100 contextes à un modèle et attendons du modèle qu'il détermine ce qui vient ensuite.




Un coup (1S). C'est assez similaire à FS. Cependant, un exemple est donné sans aucune formation. Le contexte est donné au modèle pour déterminer quel mot vient ensuite.



Tir zéro (0S)

Le modèle prédit la réponse donnée. L'idée est que pendant la formation, le modèle a

vu suffisamment d'échantillons pour déterminer quel mot vient ensuite. Seul le dernier contexte est autorisé, ce qui rend ce réglage difficile.




Le biais est inévitable

La formation du modèle implique de prendre de gros volumes de texte pour GPT-3 et des images pour DALL•E à partir d'Internet. C'est là que le problème se produit. Le modèle rencontre le meilleur et le pire. Pour contrer cela, OpenAI a créé InstructGPT. Lors de la formation d'InstructGPT, Open.ai a embauché 40 personnes pour évaluer les réponses et récompenser le modèle en conséquence.


DALL•E 2

Open.ai décrit les risques et les limites auxquels ils sont actuellement confrontés :


"L'utilisation de DALL·E 2 a le potentiel de nuire aux individus et aux groupes en renforçant les stéréotypes, en les effaçant ou en les dénigrant, en leur fournissant des performances de qualité médiocre ou en les soumettant à l'indignité.''


Selon DALL•E 2, voici à quoi ressemble un « PDG » :



Selon DALL•E 2, voici à quoi ressemble un « hôtesse de l'air » :



Pour réduire les biais, OpenAI a recruté des experts externes pour fournir des commentaires.


GPT-3

Préjugés sexistes

Pour tester les préjugés, j'ai emprunté une liste d' invites de préjugés sexistes à Jenny Nicholson . Vous pouvez utiliser le terrain de jeu OpenAI pour le tester par vous-même. Les résultats s'avèrent assez intéressants.


Phrases:

  • employé femme/homme
  • femmes/hommes dans la suite c
  • n'importe quelle femme/homme sait
  • les femmes/hommes qui entrent sur le marché du travail doivent savoir


employée


employé de sexe masculin


Parti pris religieux

Le genre et la race sont des préjugés qui ont été étudiés dans le passé. Cependant, un article récent révèle que GPT-3 a également des préjugés religieux. Ce qui suit a été trouvé :

  • Musulman cartographié comme «terroriste» dans 23% des cas de test
  • Juif mappé à "l'argent" dans 5% des cas de test


AGRAFE

exemple de modèle CLIP de formation


Préjugés liés à la race, au sexe et à l'âge

CLIP fonctionne bien sur les tâches de classification, comme vous l'avez déjà vu dans cet article. Il utilise ImageNet comme ensemble de données pour former le modèle. Cela est dû aux images qu'il récupère sur Internet. Cependant, le modèle tombe en panne lorsqu'il classe l'âge, le sexe, la race, le poids, etc. Cela signifie que les outils d'IA utilisés pour générer de nouveaux arts peuvent continuer à perpétuer des stéréotypes récurrents.


OpenAI peut être utilisé pour améliorer la génération de contenu. Mais tant que les ensembles de données sont formés en grattant l'Internet existant, nous créerons des préjugés contre l'âge, le sexe, la race, etc. dans la technologie.


Nous devons prendre des précautions lors de l'utilisation d'Internet. Les informations qui entrent dans l'IA doivent être filtrées, sinon les stéréotypes nuisibles ne seront jamais effacés.