paint-brush
Pourquoi le biais humain dans ChatGPT et d'autres chatbots pourrait entraîner une perturbation socialepar@samueltreasure
2,378 lectures
2,378 lectures

Pourquoi le biais humain dans ChatGPT et d'autres chatbots pourrait entraîner une perturbation sociale

par Samuel A. Akorede5m2023/02/22
Read on Terminal Reader

Trop long; Pour lire

Chatbot, ChatGPT, a été condamné comme étant biaisé en tenant "des préjugés et des rancunes anti-conservateurs" contre l'ancien président des États-Unis, Donald Trump. Le PDG d'OpenAI, Sam Altman, a tweeté début février pour aborder le problème. Il a admis qu'il y avait eu de la "haine" dirigée contre les employés d'OpenAI, qu'il considérait comme "épouvantable"
featured image - Pourquoi le biais humain dans ChatGPT et d'autres chatbots pourrait entraîner une perturbation sociale
Samuel A. Akorede HackerNoon profile picture

La révolution de l'IA a sans aucun doute été à l'origine de nouvelles inventions technologiques.

Sa perturbation a introduit des modèles d'IA comme les chatbots et ChatGPT qui façonnent actuellement la façon dont les gens vivent, interagissent et socialisent au 21e siècle, ce qui est époustouflant.

Deux mois seulement après son lancement l'année dernière, le chatbot OpenAI, ChatGPT, a enregistré plus de 100 millions d'utilisateurs à travers le monde.

Dans la foulée, Google a également annoncé le lancement de Bard , un modèle conversationnel basé sur l'IA qui fournit aux utilisateurs des informations faciles à digérer à partir des résultats de recherche.

Tout cela sert de réalisations monumentales, montrant à quel point le développement de l'IA est proche de la sécurisation des humains avec un style de vie facile. Mais il peut y avoir des ratés.

Le problème avec la révolution de l'IA

La création de meilleures façons de gérer les affaires humaines avec l'aide de l'IA a certaines implications.

L'émergence de modèles d'IA de haut niveau comme ChatGPT et d'autres chatbots avancés constitue déjà une menace pour les emplois humains.

Tôt ou tard, l'IA détournera furtivement des emplois humains ou rendra de nombreux travailleurs inutiles dans leurs domaines.

La perturbation de l'emploi est considérée comme inévitable à mesure que l'IA est révolutionnée. Mais il y a plus à surveiller car ces modèles d'IA s'infiltrent à tour de rôle dans la vie humaine et changent l'ordre des choses.

Un problème potentiel associé à ces nouvelles technologies - ChatGPT et autres chatbots - qui nécessite une observation sérieuse est la façon dont ces modèles peuvent provoquer des perturbations sociales.

Selon le PDG d'OpenAI, Sam Altman, l'un des problèmes majeurs de la lutte contre ChatGPT est le problème de biais.

Le biais humain a été identifié comme un problème majeur de ChatGPT, et bien sûr, il n'est pas exclusif à ChatGPT d'OpenAI seul.

Il existe d'autres chatbots avec des problèmes de préférence humaine sélective.

Statistiques de biais de l'IA

Les recherches de Tidio montrent que seulement 2 % des personnes pensent que l'IA est exempte de préjugés ; en revanche, 45 % des personnes interrogées pensent que le principal problème moderne de l'IA est le biais social.

Cela signifie que les chatbots IA comme ChatGPT et les autres manquent toujours d'équité dans leur jugement et leur fonctionnement. Parce que les préjugés humains sont ostensiblement notables en utilisant ces modèles d'IA.

Qu'est-ce que le biais IA (humain) ?

Le biais de l'IA est un problème d'intelligence artificielle causé lorsque des données biaisées sont utilisées pour former un algorithme de modèle, ce qui affecte finalement le jugement de la machine.

Expliquant le rôle des préjugés dans l'IA , Steve Nouri , responsable de Data Science & AI, a déclaré que les préjugés humains dans l'IA se présentent sous trois formes : les préjugés sexistes, les préjugés raciaux et la discrimination fondée sur l'âge.

Les préjugés humains dans l'IA sont considérés comme la responsabilité des données compromises ou celle des développeurs.

Cela montre qu'il est presque impossible pour un chatbot de lancer des insultes raciales, de répandre des déclarations blessantes ou de discriminer un certain groupe de personnes par lui-même.

Sauf qu'il existe un algorithme biaisé ou des données consommées par le modèle.

Un bon exemple doit être l' arrêt brutal du chatbot Microsoft Twitter , Tay, en 2016 après avoir été accusé d'être raciste.

Même le modèle conversationnel OpenAI récemment lancé, ChatGPT, a été condamné comme étant biaisé en tenant "des préjugés et des rancunes anti-conservateurs " contre l'ancien président des États-Unis, Donald Trump.

Pourquoi les préjugés humains dans les chatbots pourraient entraîner une perturbation sociale

Le parti pris politique de ChatGPT à propos de l'ancien président Donald Trump a conduit à de vives critiques du modèle d'IA et de sa société en développement, OpenAI, sur les réseaux sociaux.

En réponse à un large assiégé, le PDG d'OpenAI, Sam Altman, a tweeté début février pour aborder le problème. Selon Sam, l'ajustement pour éradiquer le biais ChatGPT et l'améliorer est en cours.

Dans ses tweets, Sam a admis qu'il y avait eu de la "haine" dirigée contre les employés d'OpenAI, qu'il considérait comme "épouvantable".

Il a également révélé que son entreprise s'efforçait d'améliorer le paramètre par défaut du chatbot afin de promouvoir la neutralité et de permettre également aux utilisateurs d'utiliser les systèmes en fonction des préférences individuelles.

Mais cela ne se fera pas facilement. Même Sam a admis que le processus est difficile et prendra du temps à mettre en œuvre.

Le parti pris politique de ChatGPT a conduit à des attaques injustifiées contre les employés d'OpenAI. C'est une indication suffisante pour peser les conséquences sociales de tout modèle d'IA biaisé.

Les biais de l'IA peuvent avoir des conséquences désastreuses sur les individus et les communautés. Cela peut conduire à une critique injuste d'un groupe de personnes ou à une discrimination, qui engendre indirectement l'animosité ou l'explosion sociale.

C'est pourquoi il est important de ne pas ignorer les préjugés pour le moment, mais plutôt d'exiger des solutions viables.

Comme l'a déclaré Sam, "attaquer d'autres personnes" n'a aucun effet significatif sur l'avancement du domaine de l'IA. Il convient d'attirer l'attention sur les options possibles pour réduire les biais des chatbots IA.

Comment réduire les biais dans les chatbots IA

Les préjugés humains dans les chatbots IA sont causés par l'utilisation d'algorithmes ou de données biaisés et par les développeurs des modèles. Pour éviter les biais dans l'IA, les éléments suivants doivent être respectés lors de la création de chatbots :

Développeurs d'origine diverse

Le biais d'algorithme ou le biais de données dans l'IA est principalement possible parce que les développeurs - qui sont des humains - sont naturellement biaisés dans leur approche.

Il est facile pour une équipe de développeurs homogènes de construire un modèle d'IA qui favorise ou soutient leurs points de vue et perspectives sur certains problèmes de la vie.

Pour éviter que cela ne se produise, il est nécessaire d'employer une équipe de divers scientifiques des données qui peuvent aider à l'observation et à la réduction des biais algorithmiques.

Utilisation de données synthétiques

La consommation de grandes quantités de données non censurées par les modèles d'IA les rend biaisés. Une façon d'éradiquer le biais du chatbot est de s'assurer que le modèle utilise des données synthétiques soigneusement observées par les développeurs.

Transparence

Le contrecoup de biais découvert par ChatGPT, OpenAI a convenu que son nouveau chatbot IA avait toujours "du mal à garder ses faits au clair et émet parfois des instructions nuisibles".

La société d'intelligence artificielle est venue nettoyer pour dire aux gens pourquoi le chatbot ne peut toujours pas être invoqué pour des informations importantes ou sensibles.

C'est une forme de transparence nécessaire pour limiter les préjugés humains dans les chatbots. En énonçant les faiblesses du modèle, les perturbations sociales peuvent être apprivoisées avant de s'aggraver.

Tester le modèle avant et après le développement

Comme indiqué, les développeurs doivent tester le modèle avant et après son développement.

Cela pourrait prendre beaucoup de temps pour évaluer les fonctions du chatbot et traiter toute forme de biais pouvant apparaître dans la cause des tests.

Permettre aux scientifiques des données d'étudier de près les données dont le chatbot IA a besoin pour fonctionner et perfectionner la façon dont il s'attend à ce que le modèle réponde ou construise les informations qu'il dégénère devrait être un examen obligatoire à mener après le développement.

Conclusion

ChatGPT, comme tous les autres chatbots, est encore loin d'être exempt de préjugés humains. C'est un problème fondamental qui est créé à la fois par les données avec lesquelles l'IA est formée et par les préférences personnelles des développeurs.

Une fois que les développeurs et les équipes de science des données commenceront à être cliniques et objectifs dans leur approche de la collecte de données utilisées par ces modèles d'IA, le biais de l'IA commencera son voyage vers l'extinction.