Il y a eu beaucoup de buzz à propos d'OpenAI GPT-3, qui possède maintenant le plus grand réseau de neurones. Cela signifie-t-il que le problème de l'IA a été résolu ? Oui, il dispose d'un grand ensemble de données, mais nous ne savons toujours pas comment il apprend.
OpenAI Inc est une branche à but non lucratif d'Open.AI LP dont le but est de créer une « IA conviviale » qui profitera à l'humanité.
Open.AI a plusieurs offres différentes :
OpenAI GPT-3 est formé sur 500 milliards de mots en utilisant les ensembles de données suivants :
Base de données | Jetons | Poids à l'entraînement |
---|---|---|
Exploration commune | 410 milliards | 60% |
WebText2 | 19 milliards | 22% |
Livres1 | 12 milliards | 8% |
Livres2 | 55 milliards | 8% |
Wikipédia | 3 milliards | 3% |
Les modèles de formation peuvent être réalisés en utilisant les méthodes suivantes :
Peu de coups (FS). C'est là que nous donnons entre 10 et 100 contextes à un modèle et attendons du modèle qu'il détermine ce qui vient ensuite.
Un coup (1S). C'est assez similaire à FS. Cependant, un exemple est donné sans aucune formation. Le contexte est donné au modèle pour déterminer quel mot vient ensuite.
Tir zéro (0S)
Le modèle prédit la réponse donnée. L'idée est que pendant la formation, le modèle a
vu suffisamment d'échantillons pour déterminer quel mot vient ensuite. Seul le dernier contexte est autorisé, ce qui rend ce réglage difficile.
La formation du modèle implique de prendre de gros volumes de texte pour GPT-3 et des images pour DALL•E à partir d'Internet. C'est là que le problème se produit. Le modèle rencontre le meilleur et le pire. Pour contrer cela, OpenAI a créé InstructGPT. Lors de la formation d'InstructGPT, Open.ai a embauché 40 personnes pour évaluer les réponses et récompenser le modèle en conséquence.
Open.ai décrit les risques et les limites auxquels ils sont actuellement confrontés :
"L'utilisation de DALL·E 2 a le potentiel de nuire aux individus et aux groupes en renforçant les stéréotypes, en les effaçant ou en les dénigrant, en leur fournissant des performances de qualité médiocre ou en les soumettant à l'indignité.''
Selon DALL•E 2, voici à quoi ressemble un « PDG » :
Selon DALL•E 2, voici à quoi ressemble un « hôtesse de l'air » :
Pour réduire les biais, OpenAI a recruté des experts externes pour fournir des commentaires.
Pour tester les préjugés, j'ai emprunté une liste d' invites de préjugés sexistes à Jenny Nicholson . Vous pouvez utiliser le terrain de jeu OpenAI pour le tester par vous-même. Les résultats s'avèrent assez intéressants.
Le genre et la race sont des préjugés qui ont été étudiés dans le passé. Cependant, un article récent révèle que GPT-3 a également des préjugés religieux. Ce qui suit a été trouvé :
CLIP fonctionne bien sur les tâches de classification, comme vous l'avez déjà vu dans cet article. Il utilise ImageNet comme ensemble de données pour former le modèle. Cela est dû aux images qu'il récupère sur Internet. Cependant, le modèle tombe en panne lorsqu'il classe l'âge, le sexe, la race, le poids, etc. Cela signifie que les outils d'IA utilisés pour générer de nouveaux arts peuvent continuer à perpétuer des stéréotypes récurrents.
OpenAI peut être utilisé pour améliorer la génération de contenu. Mais tant que les ensembles de données sont formés en grattant l'Internet existant, nous créerons des préjugés contre l'âge, le sexe, la race, etc. dans la technologie.
Nous devons prendre des précautions lors de l'utilisation d'Internet. Les informations qui entrent dans l'IA doivent être filtrées, sinon les stéréotypes nuisibles ne seront jamais effacés.