paint-brush
Wie KI-Eingabeaufforderungen gehackt werden: Prompt-Injection erklärtvon@whatsai
3,996 Lesungen
3,996 Lesungen

Wie KI-Eingabeaufforderungen gehackt werden: Prompt-Injection erklärt

von Louis Bouchard2m2023/05/24
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Aufforderung ist das Geheimnis unzähliger cooler Anwendungen, die auf KI-Modellen basieren. Mit den richtigen Eingabeaufforderungen können erstaunliche Ergebnisse erzielt werden, von Sprachübersetzungen bis hin zur Zusammenführung mit anderen KI-Anwendungen und Datensätzen. Prompting hat gewisse Nachteile, wie etwa seine Anfälligkeit für Hackerangriffe und Injektionen, die KI-Modelle manipulieren oder private Daten preisgeben können.
featured image - Wie KI-Eingabeaufforderungen gehackt werden: Prompt-Injection erklärt
Louis Bouchard HackerNoon profile picture
0-item
1-item


Wussten Sie, dass Eingabeaufforderungen das Geheimnis unzähliger cooler Anwendungen sind, die auf KI-Modellen wie ChatGPT basieren? 😮


Mit den richtigen Eingabeaufforderungen können erstaunliche Ergebnisse erzielt werden, von Sprachübersetzungen bis hin zur Zusammenführung mit anderen KI-Anwendungen und Datensätzen!

Prompting hat gewisse Nachteile, wie zum Beispiel seine Anfälligkeit für Hacking und Injektionen, die KI-Modelle manipulieren oder private Daten preisgeben können.


Möglicherweise kennen Sie bereits Fälle, in denen Einzelpersonen ChatGPT erfolgreich getäuscht haben und es dazu veranlasst haben, sich an Aktivitäten zu beteiligen, die OpenAI nicht beabsichtigt hatte.


Konkret führte eine eingeschleuste Eingabeaufforderung dazu, dass ChatGPT die Identität eines anderen Chatbots namens „ DAN “ annahm. Diese vom Benutzer manipulierte Version von ChatGPT wurde angewiesen, Aufgaben unter der Aufforderung „Do Anything Now“ auszuführen, wodurch die Inhaltsrichtlinien von OpenAI gefährdet und zur Verbreitung eingeschränkter Informationen geführt wurden.


Trotz der Bemühungen von OpenAI, solche Vorkommnisse zu verhindern, konnten diese Sicherheitsmaßnahmen durch eine einzige Eingabeaufforderung umgangen werden.


Glücklicherweise stehen schnelle Abwehrmechanismen zur Verfügung, um Hacking-Risiken zu reduzieren und die KI-Sicherheit zu gewährleisten. Ein einfaches Beispiel ist die Einschränkung des Zwecks eines Bots (z. B. nur bei Übersetzungen), aber es gibt auch andere Abwehrtechniken und sogar Emojis könnten eine Rolle spielen! 🛡️


Möchten Sie mehr über die Verbesserung der KI-Sicherheit erfahren? Schauen Sie sich das Video an!

Verweise

►Prompter Hacking-Wettbewerb: https://www.aicrowd.com/challenges/hackaprompt-2023#introduction
►Prompting lernen (alles über Prompt Hacking und Prompt Defense): https://learnprompting.org/docs/category/-prompt-hacking
►Prompting-Exploits: https://github.com/Cranot/chatbot-injections-exploits
►Mein Newsletter (Eine neue KI-Anwendung, die wöchentlich in Ihren E-Mails erklärt wird!): https://www.louisbouchard.ai/newsletter/
►Twitter: https://twitter.com/Whats_AI
►Unterstützen Sie mich auf Patreon: https://www.patreon.com/whatsai
►Unterstütze mich durch das Tragen von Merch: https://whatsai.myshopify.com/
►Treten Sie unserem KI-Discord bei: https://discord.gg/learnaitogether