paint-brush
Cómo se piratean las indicaciones de IA: explicación de la inyección inmediataby@whatsai
3,875
3,875

Cómo se piratean las indicaciones de IA: explicación de la inyección inmediata

Louis Bouchard2m2023/05/24
Read on Terminal Reader

Las indicaciones son el secreto detrás de innumerables aplicaciones geniales impulsadas por modelos de IA. Tener las indicaciones correctas puede generar resultados sorprendentes, desde traducciones de idiomas hasta la fusión con otras aplicaciones y conjuntos de datos de IA. La solicitud tiene ciertos inconvenientes, como su vulnerabilidad a la piratería y las inyecciones, que pueden manipular modelos de IA o exponer datos privados.
featured image - Cómo se piratean las indicaciones de IA: explicación de la inyección inmediata
Louis Bouchard HackerNoon profile picture
0-item
1-item


¿Sabía que las indicaciones son el secreto detrás de innumerables aplicaciones geniales impulsadas por modelos de IA como ChatGPT ? 😮


¡Tener las indicaciones correctas puede generar resultados sorprendentes, desde traducciones de idiomas hasta la fusión con otras aplicaciones y conjuntos de datos de IA!

La solicitud tiene ciertos inconvenientes, como su vulnerabilidad a la piratería y las inyecciones, que pueden manipular modelos de IA o exponer datos privados.


Es posible que ya esté familiarizado con instancias en las que las personas engañaron con éxito a ChatGPT, lo que provocó que participara en actividades que OpenAI no pretendía.


Específicamente, un aviso inyectado resultó en que ChatGPT asumiera la identidad de un chatbot diferente llamado " DAN ". Esta versión de ChatGPT, manipulada por el usuario, recibió instrucciones para realizar tareas bajo el mensaje "Hacer cualquier cosa ahora", lo que compromete la política de contenido de OpenAI y conduce a la difusión de información restringida.


A pesar de los esfuerzos de OpenAI para evitar tales ocurrencias, un solo mensaje permitió eludir estas medidas de seguridad.


Afortunadamente, los mecanismos de defensa rápidos están disponibles para reducir los riesgos de piratería y garantizar la seguridad de la IA. Limitar el propósito de un bot (como solo las traducciones) es un ejemplo básico, pero existen otras técnicas de defensa, ¡e incluso los emojis podrían desempeñar un papel! 🛡️


¿Quiere obtener más información sobre cómo mejorar la seguridad de la IA? ¡Mira el vídeo!

Referencias

►Competencia de piratería inmediata: https://www.aicrowd.com/challenges/hackaprompt-2023#introduction
►Learn prompting (todo sobre piratería rápida y defensa rápida): https://learnprompting.org/docs/category/-prompt-hacking
►Incitar hazañas: https://github.com/Cranot/chatbot-injections-exploits
►My Newsletter (¡Una nueva aplicación de IA explicada semanalmente en sus correos electrónicos!): https://www.louisbouchard.ai/newsletter/
►Twitter: https://twitter.com/Whats_AI
►Apóyame en Patreon: https://www.patreon.com/whatsai
►Apóyame usando Merch: https://whatsai.myshopify.com/
►Únete a nuestra discordia de IA: https://discord.gg/aprenderjuntos