paint-brush
Warum menschliche Vorurteile in ChatGPT und anderen Chatbots zu sozialen Störungen führen könnenvon@samueltreasure
2,347 Lesungen
2,347 Lesungen

Warum menschliche Vorurteile in ChatGPT und anderen Chatbots zu sozialen Störungen führen können

von Samuel A. Akorede5m2023/02/22
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Chatbot, ChatGPT, wurde als voreingenommen verurteilt, weil er „antikonservative Voreingenommenheit und Groll“ gegen den ehemaligen Präsidenten der USA, Donald Trump, hege. Sam Altman, CEO von OpenAI, twitterte Anfang Februar und ging auf das Problem ein. Er gab zu, dass es „Hass“ gegen die Mitarbeiter von OpenAI gegeben habe, den er als „entsetzlich“ ansah.
featured image - Warum menschliche Vorurteile in ChatGPT und anderen Chatbots zu sozialen Störungen führen können
Samuel A. Akorede HackerNoon profile picture

Die KI-Revolution war zweifellos für neue technologische Erfindungen verantwortlich.

Durch diesen Umbruch wurden KI-Modelle wie Chatbots und ChatGPT eingeführt, die derzeit die Art und Weise prägen, wie Menschen im 21. Jahrhundert leben, interagieren und Kontakte knüpfen, was umwerfend ist.

Nur zwei Monate nach seiner Einführung im letzten Jahr verzeichnete der OpenAI-Chatbot ChatGPT weltweit über 100 Millionen Nutzer.

Im Anschluss daran kündigte Google auch die Einführung von Bard an , einem KI-gestützten Konversationsmodell, das Menschen leicht verständliche Informationen aus Suchergebnissen liefert.

Dies alles sind monumentale Errungenschaften, die zeigen, wie nah die KI-Entwicklung daran ist, den Menschen einen einfachen Lebensstil zu ermöglichen. Aber es kann einige Fehler geben.

Das Problem mit der KI-Revolution

Die Schaffung besserer Möglichkeiten zur Bewältigung menschlicher Angelegenheiten mithilfe von KI bringt einige Auswirkungen mit sich.

Das Aufkommen hochentwickelter KI-Modelle wie ChatGPT und anderer fortschrittlicher Chatbots stellt bereits eine Bedrohung für menschliche Arbeitsplätze dar.

Früher oder später wird KI heimlich menschliche Arbeitsplätze übernehmen oder viele Arbeiter in ihren Bereichen unbrauchbar machen.

Arbeitsunterbrechungen dürften mit der Revolutionierung der KI unvermeidlich sein. Aber es gibt noch mehr zu beachten, da diese KI-Modelle abwechselnd in das menschliche Leben eindringen und die Ordnung der Dinge verändern.

Ein potenzielles Problem im Zusammenhang mit diesen neuen Technologien – ChatGPT und anderen Chatbots – das ernsthaft beobachtet werden muss, besteht darin, wie diese Modelle soziale Störungen verursachen können.

Laut Sam Altman, CEO von OpenAI, ist ein Hauptproblem bei der Bekämpfung von ChatGPT das Bias-Problem.

Menschliche Voreingenommenheit wurde als ein Hauptproblem von ChatGPT identifiziert und betrifft natürlich nicht nur ChatGPT von OpenAI.

Es gibt andere Chatbots mit selektiven menschlichen Präferenzproblemen.

KI-Bias-Statistiken

Untersuchungen von Tidio zeigen, dass nur 2 % der Menschen denken, dass KI frei von Voreingenommenheit ist; Im Gegensatz dazu glauben 45 % der Befragten, dass das größte moderne Problem der KI soziale Voreingenommenheit ist.

Dies bedeutet, dass es KI-Chatbots wie ChatGPT und den anderen immer noch an Fairness in ihrem Urteilsvermögen und ihrer Funktionsweise mangelt. Denn menschliche Vorurteile sind bei diesen KI-Modellen scheinbar spürbar.

Was ist AI (Human) Bias?

KI-Bias ist ein Problem der künstlichen Intelligenz, das entsteht, wenn verzerrte Daten zum Trainieren eines Modellalgorithmus verwendet werden, was sich letztendlich auf die Beurteilung der Maschine auswirkt.

Steve Nouri , Leiter von Data Science & AI, erklärte die Rolle von Voreingenommenheit in der KI und erklärte, dass menschliche Voreingenommenheit in der KI drei Formen annimmt: geschlechtsspezifische Voreingenommenheit, Rassenvorurteile und Altersdiskriminierung.

Die menschliche Voreingenommenheit in der KI wird als die Verantwortung für kompromittierte Daten oder die der Entwickler angesehen.

Dies zeigt, dass es für einen Chatbot nahezu unmöglich ist, rassistische Beleidigungen anzuzetteln, verletzende Aussagen zu verbreiten oder eine bestimmte Gruppe von Menschen zu diskriminieren.

Es sei denn, es gibt einen voreingenommenen Algorithmus oder vom Modell verbrauchte Daten.

Ein gutes Beispiel dafür ist die abrupte Schließung des Microsoft-Twitter-Chatbots Tay im Jahr 2016, nachdem ihm rassistische Voreingenommenheit vorgeworfen wurde.

Sogar das kürzlich eingeführte OpenAI-Konversationsmodell ChatGPT wurde als voreingenommen verurteilt, da es „antikonservative Voreingenommenheit und Groll “ gegen den ehemaligen Präsidenten der USA, Donald Trump, hege.

Warum menschliche Vorurteile in Chatbots zu sozialen Störungen führen können

Die politische Voreingenommenheit, die ChatGPT gegenüber dem ehemaligen Präsidenten Donald Trump hegte, führte in den sozialen Medien zu heftiger Kritik am KI-Modell und seinem Entwicklungsunternehmen OpenAI.

Als Reaktion auf die große Besorgnis twitterte Sam Altman, CEO von OpenAI, Anfang Februar auf das Problem. Laut Sam sind Anpassungen zur Beseitigung und Verbesserung der ChatGPT-Voreingenommenheit im Gange.

In seinen Tweets gab Sam zu, dass es „Hass“ gegen die Mitarbeiter von OpenAI gegeben habe, den er als „entsetzlich“ ansah.

Er gab außerdem bekannt, dass sein Unternehmen daran arbeite, die Chatbot-Standardeinstellungen zu verbessern, um die Neutralität zu fördern und den Benutzern eine Nutzung der Systeme basierend auf individuellen Präferenzen zu ermöglichen.

Aber das wird nicht einfach passieren. Sogar Sam gab zu, dass der Prozess schwierig ist und seine Umsetzung einige Zeit in Anspruch nehmen wird.

Die politische Voreingenommenheit von ChatGPT führte zu ungerechtfertigten Angriffen auf die Mitarbeiter von OpenAI. Das sind genügend Anhaltspunkte, um die sozialen Folgen eines voreingenommenen KI-Modells abzuwägen.

KI-Vorurteile können verheerende Folgen für Einzelpersonen und Gemeinschaften haben. Dies kann zu unfairer Kritik an einer Gruppe von Menschen oder zu Diskriminierung führen, was indirekt zu Feindseligkeit oder sozialem Aufruhr führt.

Deshalb ist es derzeit wichtig, die Vorurteile nicht zu ignorieren , sondern tragfähige Lösungen einzufordern.

Wie Sam bereits sagte, hat der „Angriff auf andere Menschen“ keine nennenswerten Auswirkungen auf die Weiterentwicklung des KI-Bereichs. Es sollte auf mögliche Optionen zur Reduzierung von KI-Chatbot-Voreingenommenheiten hingewiesen werden.

So reduzieren Sie Voreingenommenheit in KI-Chatbots

Menschliche Voreingenommenheit in KI-Chatbots wird durch die Verwendung voreingenommener Algorithmen oder Daten und durch die Entwickler der Modelle verursacht. Um Verzerrungen in der KI vorzubeugen, muss beim Aufbau von Chatbots Folgendes beachtet werden:

Entwickler unterschiedlicher Herkunft

Algorithmenverzerrungen oder Datenverzerrungen in der KI sind meist deshalb möglich, weil die Entwickler – bei denen es sich um Menschen handelt – von Natur aus in ihrem Ansatz voreingenommen sind.

Für ein Team homogener Entwickler ist es einfach, ein KI-Modell zu erstellen, das ihre Ansichten und Perspektiven zu bestimmten Lebensthemen begünstigt oder unterstützt.

Um dies zu verhindern, muss ein Team verschiedener Datenwissenschaftler eingesetzt werden, die bei der Beobachtung und Reduzierung algorithmischer Verzerrungen helfen können.

Verwendung synthetischer Daten

Der Verbrauch großer Mengen unzensierter Daten durch KI-Modelle führt zu Voreingenommenheit. Eine Möglichkeit, den Chatbot-Bias zu beseitigen, besteht darin, sicherzustellen, dass das Modell synthetische Daten verwendet, die von den Entwicklern sorgfältig beobachtet wurden.

Transparenz

Aufgrund der von ChatGPT entdeckten Gegenreaktion auf Voreingenommenheit stimmte OpenAI zu, dass sein neuer KI-Chatbot immer noch „Schwierigkeiten hat, seine Fakten klar zu halten, und gelegentlich schädliche Anweisungen herausgibt“.

Das KI-Unternehmen wollte den Leuten klar machen, warum man sich bei wichtigen oder sensiblen Informationen immer noch nicht auf den Chatbot verlassen kann.

Das ist eine Form der Transparenz, die notwendig ist, um menschliche Vorurteile in Chatbots einzudämmen. Durch die Angabe der Schwächen des Modells können soziale Unruhen eingedämmt werden, bevor sie eskalieren.

Testen des Modells vor und nach der Entwicklung

Wie bereits erwähnt, sollten Entwickler das Modell vor und nach der Entwicklung testen.

Es kann lange dauern, die Funktionen des Chatbots zu bewerten und jegliche Form von Voreingenommenheit zu beseitigen, die bei den Tests auftauchen könnte.

Es sollte eine obligatorische Untersuchung sein, die nach der Entwicklung durchgeführt werden muss, um Datenwissenschaftlern die Möglichkeit zu geben, die Daten, die der KI-Chatbot zum Funktionieren benötigt, genau zu untersuchen und zu perfektionieren, wie das Modell reagieren oder die von ihm degenerierten Informationen konstruieren soll.

Abschluss

ChatGPT ist, wie jeder andere Chatbot, noch lange nicht frei von menschlichen Vorurteilen. Es handelt sich um ein grundlegendes Problem, das sowohl durch die Daten, mit denen die KI trainiert wird, als auch durch die persönlichen Vorlieben der Entwickler entsteht.

Sobald Entwickler und Data-Science-Teams beginnen, bei der Erfassung der von diesen KI-Modellen verwendeten Daten klinisch und objektiv vorzugehen, wird die KI-Verzerrung auf dem Weg zum Aussterben sein.