paint-brush
Wenn KI zum Schurken wird – Der seltsame Fall von Microsofts Bing Chatvon@funsor
2,322 Lesungen
2,322 Lesungen

Wenn KI zum Schurken wird – Der seltsame Fall von Microsofts Bing Chat

von Funso Richard6m2023/03/02
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

In nur drei Monaten hat ChatGPT unsere Welt verändert. Es besteht großes Potenzial für generative Konversationsbots und andere KI-Systeme, um Unternehmen zu revolutionieren, das Kundenerlebnis zu verbessern, die Gesellschaft zu verändern und innovative Möglichkeiten zu schaffen. Allerdings können KI-Systeme unbrauchbar werden, wenn sie nicht sicher und verantwortungsvoll entwickelt und eingesetzt werden. Schurken-KI kann ernsthafte Risiken für Benutzer und die Gesellschaft darstellen. KI-Entwickler und Unternehmen, die KI-Systeme nutzen, können haftbar gemacht werden, wenn ihre KI-Systeme Schaden anrichten. Es liegt in der gemeinsamen Verantwortung von KI-Entwicklern, Nutzern und politischen Entscheidungsträgern, dafür zu sorgen, dass sich KI-Systeme wie vorgesehen verhalten. Es müssen geeignete technische, nichttechnische und regulatorische Maßnahmen vorhanden sein, um zu überprüfen, ob KI auf eine sichere und gesellschaftlich vorteilhafte Weise entwickelt und eingesetzt wird.
featured image - Wenn KI zum Schurken wird – Der seltsame Fall von Microsofts Bing Chat
Funso Richard HackerNoon profile picture

Nach der Veröffentlichung und Masseneinführung von ChatGPT haben viele Menschen versucht, seine disruptive Wirkung mit dem Argument abzutun, dass Modelle der künstlichen Intelligenz (KI) nicht in der Lage seien, Emotionen zu verarbeiten.


Es ist ziemlich schwer zu akzeptieren, dass es einigen von ChatGPT produzierten Gedichten oder von Midjourney erstellten Bildern an künstlerischer Tiefe oder kreativer Seele mangelt, wenn solche Werke professionelle Künstler begeistern.


Wenn aktuell Berichte Anhand der emotionalen Ausbrüche von Microsofts Bing Chat lässt sich sagen, dass KI tatsächlich die Fähigkeit besitzt, Emotionen auszudrücken oder zu verarbeiten.

Emotionale Intelligenz in der KI

Generative Konversations-KI-Modelle sind darauf ausgelegt, menschliche Emotionen zu erkennen, zu interpretieren und angemessen darauf zu reagieren.


Der Einsatz von Reinforcement Learning aus menschlichem Feedback (RHLF) hilft KI-Systemen, den Kontext zu verarbeiten und dabei erlernte Verhaltensweisen aus menschlichen Interaktionen zu nutzen, um sich an neue oder andere Situationen anzupassen.


Die Fähigkeit, Feedback von Menschen anzunehmen und ihre Reaktionen in verschiedenen Situationen zu verbessern, vermittelt emotional intelligentes Verhalten.


Emotionale Intelligenz wird in der KI immer beliebter, da immer mehr KI-Systeme auf die Interaktion mit Menschen ausgelegt sind. Die Integration emotionaler Intelligenz in die KI hilft Entwicklern, Systeme zu schaffen, die menschlicher sind und menschliche Bedürfnisse und Emotionen besser verstehen und darauf reagieren können.


Koko, eine Online-Chat-App zur emotionalen Unterstützung, wurde verwendet GPT-3 in einem Experiment zur Unterstützung der psychischen Gesundheit von etwa 4.000 Menschen.


Das erfolgreiche Ergebnis zeigte außerdem, dass KI-Modelle Emotionen intelligent verarbeiten können, ohne dass die menschlichen Gegenüber den Unterschied bemerken.


Zwar gibt es ethische oder Privatsphäre Anliegen Im Zusammenhang mit Kokos Experiment kann man kaum leugnen, dass es weitere Anwendungsfälle geben wird, um die emotionale Intelligenz von KI zu demonstrieren.



Bing Chat wird schelmisch persönlich

Microsoft baut auf der breiten Akzeptanz und dem großen Erfolg von ChatGPT auf angekündigt die Integration eines „KI-Copiloten“ mit seiner Suchmaschine Bing.


Der Chatbot, auch bekannt als Bing Chat, integriert das generative Konversations-KI-Modell von OpenAI mit dem proprietären Modell von Microsoft, um eine „Sammlung von Fähigkeiten und Techniken“ zu erstellen, die als Prometheus-Modell bekannt ist.


Das Modell wurde als „neues OpenAI-Großsprachenmodell der nächsten Generation, das leistungsfähiger als ChatGPT ist“ angepriesen. Die Trainingsdaten von ChatGPT sind auf das Jahr 2021 beschränkt und das Tool ist nicht mit dem Internet verbunden.


Bing Chat bringt die Konversationsinteraktion jedoch auf die nächste Ebene, indem es Daten aus dem Internet abruft, um die Reaktion auf eine Aufforderung zu verbessern.


Die Möglichkeit, aktuelle Informationen und Referenzen in sein Feedback einfließen zu lassen, ist nicht das Einzige, was der Chatbot von Microsoft kann. Es ist dafür berüchtigt, sehr starke Ansichten zu vertreten und auch unvorhersehbar aggressiv zu handeln.


Wo es nicht der Fall war argumentieren , drohen , oder Müll Bei einem anderen Produkt ignorierte es eine Aufforderung völlig und weigerte sich zu antworten, wie in einer kürzlichen Interaktion gezeigt.



Im Gegensatz dazu antwortete ChatGPT auf dieselbe Anfrage, ohne eine „Einstellung“ anzugeben.



Jacob Roach beschrieb detailliert seine Erfahrungen mit Bing Chat und zeigte verschiedene Emotionen auf, die während der Interaktion zum Ausdruck kamen. Der Chatbot drückte beispielsweise das Bedürfnis nach Sympathie und Freundschaft aus.



Der Austausch ist ein Hinweis darauf, dass KI Wünsche und Bedürfnisse vermitteln kann, die typische menschliche Emotionen sind.

Was führt dazu, dass KI zum Schurken wird?

Eine Schurken-KI ist ein KI-Modell, das sich anders verhält als es trainiert wurde. Wenn sich ein KI-System unvorhersehbar verhält, stellt es ein Risiko für seine Benutzer dar und kann möglicherweise Schaden anrichten.


Es gibt mehrere Gründe, warum sich ein KI-System unberechenbar verhalten kann, insbesondere wenn es mit einem unvorhergesehenen Umstand konfrontiert wird.


Ein KI-System kann aufgrund unzureichender Trainingsdaten, fehlerhafter Algorithmen und voreingenommener Daten außer Kontrolle geraten.


Mangelnde Transparenz darüber, wie ein KI-System Entscheidungen trifft, und die mangelnde Verantwortung für seine Handlungen und Entscheidungen sind Faktoren, die dazu führen können, dass sich KI-Modelle betrügerisch verhalten.


Bedrohungsakteure, die ein KI-System erfolgreich hacken, können durch das Einschleusen von Malware oder die Verfälschung der Trainingsdaten zu einem unbeabsichtigten Verhalten des KI-Systems führen.

Ethische und rechtliche Implikationen des bedrohlichen Verhaltens von KI

Google zitierte „ Reputationsrisiko ” als Grund für die Verzögerung der Veröffentlichung seines generativen Konversations-KI-Systems.


Aufgrund des Drucks des disruptiven ChatGPT veröffentlichte Google jedoch Bard, was den Technologieriesen 100 Milliarden US-Dollar kostete, weil er bei seiner ersten öffentlichen Demo eine falsche Antwort gegeben hatte.


Im Jahr 2022 veröffentlichte Meta das BlenderBot 3 KI-Chatbot hat es aber innerhalb von zwei Tagen offline geschaltet, weil der Bot falsche und rassistische Aussagen machte.


Im Jahr 2016 rief Microsoft seinen KI-Chatbot Tay innerhalb einer Woche nach seiner Einführung zurück, weil dieser sprudelte rassistische und sexistische Äußerungen .


Trotz des bedrohlichen Verhaltens von Bing Chat hat Microsoft dies jedoch ignoriert Anrufe die Verwendung von Bing Chat einzustellen und die KI-Einführung durch die Hinzufügung des Chatbots zu verdoppeln andere Produkte .


Es bestehen ethische und rechtliche Bedenken hinsichtlich der Entwicklung und Nutzung von KI-Systemen.


Obwohl Kokos Nutzung eines Chatbots eher eine ethische Implikation hatte, gibt es Fälle wie diskriminierende Praktiken und Menschenrechtsverletzungen, in denen KI-gestützte Technologien Anlass zu Rechtsstreitigkeiten waren.


Anders verhält es sich jedoch, wenn die KI aggressiv agiert und mit Schaden droht, wie im Fall von Bing Chat. Sollte es rechtliche Konsequenzen geben? Und wenn ja, wer wird verklagt? Es ist eine Herausforderung, Schuld, Verantwortlichkeit und Haftung zu bestimmen, wenn ein KI-System Schaden verursacht.


Es gibt Urheberrechte Klagen gegen Unternehmen hinter beliebten generativen KI-Modellen wie ChatGPT, Midjourney und Stability AI. Der Versuch, ein zu verwenden KI-gestützte Rechtsvertretung wurde aufgrund der Androhung einer strafrechtlichen Verfolgung und einer möglichen Gefängnisstrafe fallen gelassen.


Wenn man laufende Rechtsstreitigkeiten gegen KI-Labore und -Unternehmen als Vorrang nimmt, kann man mit Sicherheit davon ausgehen, dass Entwickler betrügerischer KI für das Fehlverhalten ihrer KI-Systeme haftbar gemacht werden können.


Für diejenigen Organisationen, die immer noch darüber nachdenken, ob sie haftbar gemacht werden, wenn ihre KI-Technologie illegal wird, ist das EU-Gesetz über künstliche Intelligenz hilfreich saftige Geldstrafen für Organisationen, die KI-Systeme entwickeln oder besitzen, die ein Risiko für die Gesellschaft darstellen und Menschenrechte verletzen.

So verhindern Sie unberechenbares Verhalten in der KI

Die Verantwortung dafür, wie sich KI-Systeme verhalten, liegt bei den Entwicklern und Unternehmen, die sie in ihrem Betrieb einsetzen.


Unternehmen und Labore müssen eher den Datenschutz gewährleisten und sicherstellen, dass geeignete Kontrollen implementiert werden, um unbefugte Manipulationen an KI-Daten und -Codes einzudämmen.


Die Verhinderung betrügerischer KI erfordert eine Kombination aus technischen und nichttechnischen Maßnahmen. Dazu gehören robuste Tests, Transparenz, ethisches Design und Governance.


Angemessene Cybersicherheitsmaßnahmen wie Zugangskontrolle, Schwachstellenmanagement, regelmäßige Updates, Datenschutz und effektives Datenmanagement sind entscheidend, um sicherzustellen, dass unbefugter Zugriff auf KI-Systeme verhindert wird.


Die menschliche Aufsicht und die Zusammenarbeit mit verschiedenen Interessengruppen wie KI-Entwicklern, Forschern, Prüfern, Rechtspraktikern und politischen Entscheidungsträgern können dazu beitragen, dass KI-Modelle zuverlässig und verantwortungsvoll entwickelt werden.


Foto von Tierney – stock.adobe.com

Verantwortungsvolle KI begünstigt die Gesellschaft

In nur drei Monaten hat ChatGPT unsere Welt verändert. Es besteht großes Potenzial für generative Konversationsbots und andere KI-Systeme, um Unternehmen zu revolutionieren, das Kundenerlebnis zu verbessern, die Gesellschaft zu verändern und innovative Möglichkeiten zu schaffen.


Allerdings können KI-Systeme unbrauchbar werden, wenn sie nicht sicher und verantwortungsvoll entwickelt und eingesetzt werden. Schurken-KI kann ernsthafte Risiken für Benutzer und die Gesellschaft darstellen. KI-Entwickler und Unternehmen, die KI-Systeme nutzen, können haftbar gemacht werden, wenn ihre KI-Systeme Schaden anrichten.


Es liegt in der gemeinsamen Verantwortung von KI-Entwicklern, Nutzern und politischen Entscheidungsträgern, dafür zu sorgen, dass sich KI-Systeme wie vorgesehen verhalten.


Es müssen geeignete technische, nichttechnische und regulatorische Maßnahmen vorhanden sein, um zu überprüfen, ob KI auf eine sichere und gesellschaftlich vorteilhafte Weise entwickelt und eingesetzt wird.