paint-brush
Pouvons-nous vraiment détecter le texte généré par l'IA à partir de ChatGPT et d'autres LLM ?par@thetechpanda
1,481 lectures
1,481 lectures

Pouvons-nous vraiment détecter le texte généré par l'IA à partir de ChatGPT et d'autres LLM ?

par The Tech Panda4m2023/05/15
Read on Terminal Reader

Trop long; Pour lire

Les grands modèles de langage (LLM) tels que GPT-3 sont rapidement devenus l'une des avancées technologiques les plus importantes dans le domaine du traitement du langage naturel (NLP) Avec la capacité de générer un texte cohérent et contextuellement pertinent, les LLM pourraient être utilisés pour produire de fausses nouvelles ou diffuser des informations erronées, ce qui pourrait avoir de graves conséquences sur la société.
featured image - Pouvons-nous vraiment détecter le texte généré par l'IA à partir de ChatGPT et d'autres LLM ?
The Tech Panda HackerNoon profile picture
0-item
1-item

Les grands modèles de langage (LLM) tels que GPT-3 sont rapidement devenus l'une des avancées technologiques les plus importantes dans le domaine du traitement du langage naturel (TAL).


Les LLM ont démontré un potentiel important pour aider dans une variété de tâches, y compris la traduction linguistique, la synthèse de texte, la réponse aux questions, la recherche d'informations, le moteur de recommandation, la robotique basée sur la langue et bien d'autres.


Succès des LLM (Source de l'image : Ref)


Alors que les grands modèles de langage (LLM) comme ChatGPT ont montré des performances exceptionnelles dans diverses tâches de traitement du langage naturel, leur utilisation abusive potentielle soulève des problèmes éthiques qui doivent être résolus . Avec la capacité de générer un texte cohérent et contextuellement pertinent, les LLM pourraient être utilisés pour produire de fausses nouvelles ou diffuser de la désinformation, ce qui pourrait avoir de graves conséquences sur la société.


Une telle utilisation abusive pourrait conduire à l'érosion de la confiance dans les médias d'information et à une perception déformée de la réalité. De plus, les LLM pourraient être utilisées pour le plagiat, le vol de propriété intellectuelle ou les fausses générations de critiques de produits, ce qui pourrait induire les consommateurs en erreur et avoir un impact négatif sur les entreprises. De plus, la capacité des LLM à manipuler le contenu Web à des fins malveillantes, telles que la création de faux comptes sur les réseaux sociaux ou l'influence sur les discussions en ligne, pourrait avoir des effets désastreux sur l'opinion publique et le discours politique.


Avec l'inquiétude croissante, il est probablement temps de se poser la question :


Pouvons-nous distinguer les textes générés par l'IA de ceux générés par l'homme ?


Recherches antérieures et détectabilité

D'une part, DetectGPT de Stanford compare la probabilité qu'un modèle attribue au texte écrit à celle d'une modification du texte, à détecter.




D'autre part, des approches basées sur les filigranes développées par le groupe de Tom Goldstein sont proposées pour augmenter efficacement la détectabilité.




Cependant, les filigranes (qui ne sont pas formés de manière robuste) se sont révélés vulnérables aux attaques de paraphrase et d'usurpation d'identité, par Sadasivan et coll. et Krishna et al.




Dernier débat dans la communauté

La communauté a récemment eu un débat houleux sur la question de savoir si les textes générés par l'IA peuvent être distingués de ceux générés par l'homme, ainsi que des discussions sur la question de savoir si nous ne parviendrons pas à "conserver l'IA" et à avoir une apocalypse AGI puisque nous ne pouvons pas détecter l'IA- contenu généré. Les responsables techniques ont même appelé à une suspension de 6 mois de la formation sur les grands modèles linguistiques (LLM).


Des responsables académiques tels que Yann Lecun et Andrew Ng sont contre cette interdiction de l'IA.

VP et Chief AI Scientist chez Meta, Yann LeCun cite,


« Pourquoi ralentir le progrès des connaissances ?


Possibilité de détection

Au milieu de cette période critique, nous étudions la détectabilité des textes générés par l'IA à travers une lentille de théorie de l'information. Nous apportons des preuves d'optimisme : il devrait presque toujours être possible de détecter à moins que les distributions de texte humain et machine ne soient exactement les mêmes sur l'ensemble du support.

La détectabilité est possible

La détectabilité repose sur un compromis précis avec Chernoff Information et d'autres observations. Nous prouvons une limite supérieure atteignable d'AUROC (qui est comprise entre 0 et 1, plus haut signifie plus détectable) via un détecteur basé sur le rapport de vraisemblance utilisant plusieurs échantillons. À mesure que le nombre d'échantillons augmente, AUROC augmente de façon exponentielle jusqu'à 1.



Une lentille dirigée par l'information

Ces résultats théoriques d'information reposent sur une quantité clé appelée information de Chernoff, qui peut guider la conception des filigranes des LLM. Expérimentalement, nous avons vérifié que l'indétectabilité de la détection au niveau du mot devient détectable lorsqu'elle passe à la détection au niveau du paragraphe.



Nos résultats démontrent qu'il sera presque toujours possible de détecter le texte généré par l'IA.



Résultats théoriques

Ces résultats théoriques d'information reposent sur une quantité clé appelée information de Chernoff, qui peut guider la conception des filigranes des LLM. Nous avons dérivé des limites de complexité d'échantillon pour guider la possibilité de détection de texte généré par l'IA.




Démonstrations empiriques

L'indétectabilité au niveau du mot devient détectable lors du passage à la détection au niveau du paragraphe sur plusieurs ensembles de données. À mesure que nous augmentons la longueur de la détection, la précision de détection de ZeroShot augmente considérablement.




En fin de compte, nous pensons que la bonne façon de lutter contre l'utilisation abusive des #LLM est de les corriger plutôt que de les interdire.



Même en tant que jeune, cependant, je ne pouvais pas me résoudre à croire que si la connaissance présentait un danger, la solution était l'ignorance. Pour moi, il m'a toujours semblé que la solution devait être la sagesse. Vous n'avez pas refusé de regarder le danger, vous avez plutôt appris à le gérer en toute sécurité.

Isaac Asimov



Remarque : Il s'agit de la première étape et notre étude appelle à la poursuite des recherches pour développer des cadres et des lignes directrices qui encouragent l'innovation et garantissent une utilisation éthique de ces puissants outils.


Contributeurs invités :


Souradip Chakraborty , Ph.D. Étudiant diplômé à l'Université du Maryland , Amrit Singh Bedi , chercheur scientifique, Université du Maryland, Sicheng Zhu, Bang An, Dinesh Manocha et Furong Huang étudient la détectabilité des textes générés par l'IA à travers une lentille de théorie de l'information. Toutes les opinions exprimées dans cet article sont strictement celles des auteurs.





Cet article a été initialement publié par Souradip Chakraborty, Ph.D. Étudiant diplômé à l'Université du Maryland, Amrit Singh Bedi, chercheur scientifique, Université du Maryland, Sicheng Zhu, Bang An, Dinesh Manocha et Furong Huang sur The Tech Panda.