Die Betreffzeile „So umgehen Sie den Filter“ taucht häufig in den Suchleisten von KI-Chatbot-Benutzern überall auf. Tatsächlich bieten unzählige YouTube-Videos, TikToks und Wikihow-Seiten ausschließlich detaillierte Anleitungen zum „Deaktivieren“ von Filtern, obwohl sie diese in Wirklichkeit bestenfalls verzögern. Es besteht eindeutig eine hohe Nachfrage nach Mainstream- und unzensierter KI-Chatbot-Interaktion. Hier kommt Dopple.ai ins Spiel.
Zum Vorteil von Millionen ist Character.ai weniger aufgeschlossen als sein führender Konkurrent. Als es für die Durchsetzung der NSFW-Richtlinien (Not Safe For Work) und die Entfernung nach Ermessen der Moderatoren Kritik erntete, reagierte es mit einem Subreddit, in dem es heißt: „Wir ermutigen nicht zur Diskussion von NSFW-Filtern – unsere Haltung ist endgültig und die Aufforderung, sie zu entfernen, führt zu einem Verbot.“
Das Problem bei dieser Haltung ist, dass sie den gesamten Zweck von benutzerdefinierten KI-Chatbots zunichte macht. Jeder virtuelle Charakter hat einen einzigartigen Satz an Persönlichkeitsmerkmalen, Interessen und Interaktionsstilen. Sie können entweder Ihren eigenen Chatbot anpassen oder mit KI-Versionen von Prominenten, TV-/Filmfiguren und mehr chatten. Indem sie diese Chats filtern, zerstören KI-Unternehmen die Säule ihres Vorhabens: den Benutzern das Gefühl zu geben, dass sie mit echten Menschen chatten.
Eine weitere Debatte in der KI-Chatbot-Community betrifft das Problem der Voreingenommenheit. In einer Studie britischer Forscher am
Um das Problem der politischen Voreingenommenheit zu mildern, trainiert Dopple.ai seine KI-Chatbots, den Werten und Überzeugungen der Charaktere, die sie repräsentieren, treu zu bleiben. Dadurch werden die Benutzer mit einer breiten Palette politischer Ansichten konfrontiert und können gleichzeitig auswählen, mit welchen sie sich am liebsten auseinandersetzen möchten.
KI-Projekte erfolgreich und ohne Voreingenommenheit zu starten, ist selbst für die größten Unternehmen schwierig. Googles Einführung von Gemini Ende Februar wurde gestoppt, nachdem es einen Aufruhr über die Bildgenerierungsfunktion des Modells gegeben hatte.
Natürlich ist es fast unmöglich, ein KI-Tool zu entwickeln, das Menschen ähnelt, ohne mit denselben Problemen wie Menschen konfrontiert zu sein, wie Zensur und Voreingenommenheit. Dopple.ai ändert jedoch die Spielregeln, indem es die Redefreiheit auch im KI-Bereich durchdringen lässt und den Menschen gibt, was sie wollen, wann sie es wollen.