paint-brush
AI Prompts 如何被黑客攻击:Prompt Injection 解释经过@whatsai
3,997 讀數
3,997 讀數

AI Prompts 如何被黑客攻击:Prompt Injection 解释

经过 Louis Bouchard2m2023/05/24
Read on Terminal Reader

太長; 讀書

提示是无数由 AI 模型提供支持的炫酷应用程序背后的秘密。拥有正确的提示可以产生惊人的结果,从语言翻译到与其他 AI 应用程序和数据集的合并。提示有一定的缺点,例如它容易受到黑客攻击和注入,可以操纵 AI 模型或暴露私人数据。
featured image - AI Prompts 如何被黑客攻击:Prompt Injection 解释
Louis Bouchard HackerNoon profile picture
0-item
1-item


您是否知道提示是无数由ChatGPT等 AI 模型提供支持的炫酷应用程序背后的秘密? 😮


拥有正确的提示可以产生惊人的结果,从语言翻译到与其他 AI 应用程序和数据集的合并!

提示有一定的缺点,例如它容易受到黑客攻击和注入,可以操纵 AI 模型或暴露私人数据。


您可能已经熟悉个人成功欺骗 ChatGPT 的实例,导致其从事 OpenAI 不希望的活动。


具体来说,注入的提示导致 ChatGPT 假设另一个名为“ DAN ”的聊天机器人的身份。这个版本的 ChatGPT 由用户操纵,被指示在“现在做任何事情”的提示下执行任务,从而破坏了 OpenAI 的内容政策并导致受限信息的传播。


尽管 OpenAI 努力防止此类事件发生,但一个提示就可以绕过这些保护措施。


值得庆幸的是,可以使用及时的防御机制来降低黑客攻击风险并确保 AI 安全。限制机器人的目的(比如仅翻译)是一个基本示例,但还存在其他防御技术,甚至表情符号也可以发挥作用! 🛡️


想了解更多关于增强 AI 安全性的信息?观看视频!

参考

►提示黑客竞赛: https://www.aicrowd.com/challenges/hackaprompt-2023#introduction
►学习提示(关于提示黑客和提示防御的一切): https://learnprompting.org/docs/category/-prompt-hacking
►提示攻击: https://github.com/Cranot/chatbot-injections-exploits
►我的时事通讯(每周向您的电子邮件解释一个新的 AI 应用程序!): https://www.louisbouchard.ai/newsletter/
►推特: https://twitter.com/Whats_AI
►在 Patreon 上支持我: https://www.patreon.com/whatsai
►通过佩戴 Merch 来支持我: https://whatsai.myshopify.com/
►加入我们的 AI Discord: https://discord.gg/learnaitogether