Wussten Sie, dass Eingabeaufforderungen das Geheimnis unzähliger cooler Anwendungen sind, die auf KI-Modellen wie ChatGPT basieren? 😮
Mit den richtigen Eingabeaufforderungen können erstaunliche Ergebnisse erzielt werden, von Sprachübersetzungen bis hin zur Zusammenführung mit anderen KI-Anwendungen und Datensätzen!
Prompting hat gewisse Nachteile, wie zum Beispiel seine Anfälligkeit für Hacking und Injektionen, die KI-Modelle manipulieren oder private Daten preisgeben können.
Möglicherweise kennen Sie bereits Fälle, in denen Einzelpersonen ChatGPT erfolgreich getäuscht haben und es dazu veranlasst haben, sich an Aktivitäten zu beteiligen, die OpenAI nicht beabsichtigt hatte.
Konkret führte eine eingeschleuste Eingabeaufforderung dazu, dass ChatGPT die Identität eines anderen Chatbots namens „ DAN “ annahm. Diese vom Benutzer manipulierte Version von ChatGPT wurde angewiesen, Aufgaben unter der Aufforderung „Do Anything Now“ auszuführen, wodurch die Inhaltsrichtlinien von OpenAI gefährdet und zur Verbreitung eingeschränkter Informationen geführt wurden.
Trotz der Bemühungen von OpenAI, solche Vorkommnisse zu verhindern, konnten diese Sicherheitsmaßnahmen durch eine einzige Eingabeaufforderung umgangen werden.
Glücklicherweise stehen schnelle Abwehrmechanismen zur Verfügung, um Hacking-Risiken zu reduzieren und die KI-Sicherheit zu gewährleisten. Ein einfaches Beispiel ist die Einschränkung des Zwecks eines Bots (z. B. nur bei Übersetzungen), aber es gibt auch andere Abwehrtechniken und sogar Emojis könnten eine Rolle spielen! 🛡️
►Prompter Hacking-Wettbewerb:
►Prompting lernen (alles über Prompt Hacking und Prompt Defense):
►Prompting-Exploits:
►Mein Newsletter (Eine neue KI-Anwendung, die wöchentlich in Ihren E-Mails erklärt wird!):
►Twitter:
►Unterstützen Sie mich auf Patreon:
►Unterstütze mich durch das Tragen von Merch:
►Treten Sie unserem KI-Discord bei: