paint-brush
Comment les invites de l'IA sont piratées : l'injection d'invites expliquéepar@whatsai
3,718 lectures
3,718 lectures

Comment les invites de l'IA sont piratées : l'injection d'invites expliquée

par Louis Bouchard2m2023/05/24
Read on Terminal Reader

Trop long; Pour lire

L'invite est le secret derrière d'innombrables applications sympas alimentées par des modèles d'IA. Avoir les bonnes invites peut donner des résultats étonnants, des traductions linguistiques à la fusion avec d'autres applications et ensembles de données d'IA. L'invite présente certains inconvénients, tels que sa vulnérabilité au piratage et aux injections, qui peuvent manipuler des modèles d'IA ou exposer des données privées.
featured image - Comment les invites de l'IA sont piratées : l'injection d'invites expliquée
Louis Bouchard HackerNoon profile picture
0-item
1-item


Saviez-vous que l'invite est le secret derrière d'innombrables applications géniales alimentées par des modèles d'IA comme ChatGPT ? 😮


Avoir les bonnes invites peut donner des résultats étonnants, des traductions linguistiques à la fusion avec d'autres applications et ensembles de données d'IA !

L'invite présente certains inconvénients, tels que sa vulnérabilité au piratage et aux injections, qui peuvent manipuler des modèles d'IA ou exposer des données privées.


Vous connaissez peut-être déjà des cas où des individus ont réussi à tromper ChatGPT, l'amenant à s'engager dans des activités qu'OpenAI n'avait pas prévues.


Plus précisément, une invite injectée a conduit ChatGPT à supposer l'identité d'un chatbot différent nommé " DAN ". Cette version de ChatGPT, manipulée par l'utilisateur, a été chargée d'effectuer des tâches sous l'invite "Do Anything Now", compromettant ainsi la politique de contenu d'OpenAI et conduisant à la diffusion d'informations restreintes.


Malgré les efforts d'OpenAI pour empêcher de tels événements, une seule invite a permis de contourner ces protections.


Heureusement, des mécanismes de défense rapides sont disponibles pour réduire les risques de piratage et assurer la sécurité de l'IA. Limiter le but d'un bot (comme les traductions uniquement) est un exemple basique, mais d'autres techniques de défense existent, et même les emojis pourraient jouer un rôle ! 🛡️


Vous voulez en savoir plus sur l'amélioration de la sécurité de l'IA ? Regardez la vidéo !

Les références

►Concours de piratage rapide : https://www.aicrowd.com/challenges/hackaprompt-2023#introduction
►Apprenez l'invite (tout sur le piratage rapide et la défense rapide) : https://learnprompting.org/docs/category/-prompt-hacking
►Prompting exploits : https://github.com/Cranot/chatbot-injections-exploits
►Ma Newsletter (Une nouvelle application d'IA expliquée chaque semaine à vos mails !) : https://www.louisbouchard.ai/newsletter/
►Twitter : https://twitter.com/Whats_AI
►Soutenez-moi sur Patreon : https://www.patreon.com/whatsai
►Soutenez-moi en portant Merch : https://whatsai.myshopify.com/
►Rejoignez notre Discord IA : https://discord.gg/learnaitogether