paint-brush
75 % der Unternehmen verbieten die Nutzung von ChatGPT: Was ist passiert?von@georgedrennan
2,232 Lesungen
2,232 Lesungen

75 % der Unternehmen verbieten die Nutzung von ChatGPT: Was ist passiert?

von George Drennan4m2023/09/25
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

ChatGPT hat seit seiner Veröffentlichung im letzten Jahr die Welt im Sturm erobert. Eine aktuelle Umfrage ergab jedoch, dass 75 % der Unternehmen ein Verbot von ChatGPT und anderen generativen KI-Anwendungen an ihrem Arbeitsplatz eingeführt haben oder darüber nachdenken. Unternehmen sind besorgt über mögliche Cybersicherheitsrisiken. Das erste große ChatG PT-Datenleck ereignete sich Anfang des Jahres und betraf den Technologieriesen Samsung.
featured image - 75 % der Unternehmen verbieten die Nutzung von ChatGPT: Was ist passiert?
George Drennan HackerNoon profile picture
0-item

Ist die ChatGPT-Flitterwochenzeit vorbei?


ChatGPT hat seit seiner Veröffentlichung im letzten Jahr die Welt im Sturm erobert. Dies ergab jedoch eine aktuelle Umfrage 75 % der Unternehmen haben Verbote für ChatGPT und andere generative KI- Anwendungen an ihrem Arbeitsplatz eingeführt oder erwägen diese.


Warum bekommen Unternehmen angesichts von ChatGPT kalte Füße?


Es ist nicht so, dass sie an seinen Fähigkeiten zweifeln. Stattdessen machen sie sich Sorgen über mögliche Cybersicherheitsrisiken.


Ein wachsendes Problem: Datenlecks und ChatGPT

Generative KI-Tools sind darauf ausgelegt, aus jeder Interaktion zu lernen. Je mehr Daten Sie ihnen geben, desto intelligenter werden sie. Klingt großartig, oder?


Es gibt jedoch eine Grauzone hinsichtlich der Frage, wohin die Daten gehen, wer sie sieht und wie sie verwendet werden.


Diese Datenschutzbedenken führten zur italienischen Datenschutzbehörde vorübergehendes Verbot von ChatGPT Im April.


Für Unternehmen besteht die Sorge, dass ChatGPT von Benutzern übermittelte Informationen aufnimmt, daraus lernt und diese möglicherweise bei zukünftigen Interaktionen mit anderen Benutzern preisgibt.


Die Richtlinien von OpenAI für ChatGPT weisen darauf hin, dass Benutzerdaten überprüft und zur Verfeinerung des Systems verwendet werden könnten. Doch was bedeutet das für den Datenschutz?


Die Antwort ist nicht eindeutig, und das ist der Grund für die Besorgnis.


Sorgen um Datenlecks: Was ist das wahre Risiko?

Eine Cyberhaven-Studie ergab, dass bis zum 1. Juni 10,8 % der Arbeitnehmer ChatGPT am Arbeitsplatz nutzten und 8,6 % Unternehmensinformationen eingaben. Die alarmierende Statistik besagt, dass 4,7 % der Arbeitnehmer vertrauliche Informationen in ChatGPT eingegeben haben.


Ergebnisse der Cyberhaven-Studie


Und aufgrund der Funktionsweise von ChatGPT fehlen herkömmliche Sicherheitsmaßnahmen. Die meisten Sicherheitsprodukte dienen dazu, Dateien vor der Weitergabe oder dem Hochladen zu schützen. Aber ChatGPT-Benutzer kopieren Inhalte und fügen sie in ihre Browser ein.


Jetzt hat OpenAI eine Opt-out-Option hinzugefügt. Nutzer können verlangen, dass ihre Daten nicht für weitere Schulungen verwendet werden.


Das Opt-out ist jedoch nicht die Standardeinstellung. Sofern die Benutzer sich dessen nicht bewusst sind und keine proaktiven Maßnahmen ergreifen, könnten ihre Interaktionen zum Trainieren der KI genutzt werden.


Die Bedenken hören hier nicht auf.


Auch wenn Sie sich abmelden, werden Ihre Daten weiterhin durch das System übertragen. Und während OpenAI den Benutzern versichert, dass Daten verantwortungsvoll verwaltet werden, bietet ChatGPT fungiert als Blackbox . Es ist nicht klar, wie Daten nach der Aufnahme innerhalb des Systems fließen.


Es besteht auch die Gefahr, dass etwas schief geht.


Am 21. März 2023 hat OpenAI ChatGPT aufgrund eines Fehlers geschlossen , bei dem Chatverläufe fälschlicherweise mit Namen verschiedener Benutzer betitelt wurden. Wenn diese Titel private oder sensible Daten enthielten, könnten andere ChatGPT-Benutzer sie gesehen haben. Durch den Fehler wurden auch die persönlichen Daten einiger ChatGPT Plus-Abonnenten offengelegt.

Der Samsung-Vorfall

Das erste große ChatGPT-Datenleck ereignete sich Anfang des Jahres und betraf den Technologieriesen Samsung . Laut Bloomberg handelte es sich um sensiblen internen Quellcode versehentlich durchgesickert nachdem ein Ingenieur es auf ChatGPT hochgeladen hatte.


Ein solches Leck kann schwerwiegende Folgen haben.


Und es war nicht nur Samsung. Amazon , ein weiterer Gigant der Technologiebranche, hatte seine eigenen Bedenken. Das Unternehmen identifizierte Instanzen wo die Antworten von ChatGPT unheimlich den internen Daten von Amazon ähnelten.


Wenn ChatGPT über die proprietären Daten von Amazon verfügt, was hindert es dann daran, diese versehentlich an Konkurrenten weiterzugeben?


Mangel an klaren Regelungen

Die rasante Entwicklung und Einführung generativer KI-Tools hat dazu geführt, dass die Regulierungsbehörden aufholen müssen. Es gibt begrenzte Richtlinien für den verantwortungsvollen Umgang.


Wenn es also aufgrund der KI zu einem Datenverstoß kommt, wer ist dann verantwortlich – das Unternehmen, das das Tool nutzt, die Mitarbeiter oder der KI-Anbieter?


In OpenAIs Nutzungsbedingungen Die Verantwortung liegt beim Benutzer:

Nutzungsbedingungen von OpenAI


Das birgt Risiken für Unternehmen. Ohne klare Regelungen bleibt es ihnen überlassen, über die beste Vorgehensweise zu entscheiden. Deshalb werden viele jetzt zögerlicher.


Widersprüchliche Ansichten von Technologieführern

Wenn es um den Einsatz neuer Technologien geht, wenden sich Unternehmen häufig an Technologieführer. Wenn ein Technologieriese eine neue Innovation einführt, wird dies oft als grünes Licht für andere Unternehmen gesehen, diesem Beispiel zu folgen.


Wenn also ein so einflussreiches Unternehmen wie Microsoft hinsichtlich einer Technologie gemischte Signale ausgibt, sind die Auswirkungen branchenübergreifend zu spüren.


Einerseits hat Microsoft Vorbehalte gegenüber dem Einsatz generativer KI-Tools geäußert. Im Januar warnte Microsoft seine Mitarbeiter davor, „sensible Daten“ an ChatGPT weiterzugeben.



Aber Microsoft setzt sich auch für seine eigene Version der Technologie ein, Azure ChatGPT. Diese Iteration verspricht eine sicherere und kontrolliertere Umgebung für Unternehmensbenutzer.


Dieser Schritt wirft Fragen auf: Ist Azure ChatGPT wirklich immun gegen die Risiken, auf die Microsoft in der breiteren generativen KI-Landschaft hingewiesen hat? Oder handelt es sich hierbei um ein strategisches Manöver, um sicherzustellen, dass Unternehmen im Microsoft-Ökosystem bleiben?


Die Bilanz der Einführung von ChatGPT

Bei der Bewertung einer neuen Technologie geraten Unternehmen oft in ein Tauziehen zwischen den potenziellen Vorteilen und den potenziellen Fallstricken.


Bei ChatGPT scheinen Unternehmen eine abwartende Haltung einzunehmen.


Mit der Weiterentwicklung der Technologie und ihrer Vorschriften besteht die Hoffnung, dass eine sicherere und transparentere Nutzung etabliert werden kann.


Im Moment eignet sich ChatGPT hervorragend für ein wenig Codierungshilfe und Inhalte. Aber ich würde ihm keine proprietären Daten anvertrauen.