Ist die ChatGPT-Flitterwochenzeit vorbei?
ChatGPT hat seit seiner Veröffentlichung im letzten Jahr die Welt im Sturm erobert. Dies ergab jedoch eine aktuelle Umfrage
Warum bekommen Unternehmen angesichts von ChatGPT kalte Füße?
Es ist nicht so, dass sie an seinen Fähigkeiten zweifeln. Stattdessen machen sie sich Sorgen über mögliche Cybersicherheitsrisiken.
Generative KI-Tools sind darauf ausgelegt, aus jeder Interaktion zu lernen. Je mehr Daten Sie ihnen geben, desto intelligenter werden sie. Klingt großartig, oder?
Es gibt jedoch eine Grauzone hinsichtlich der Frage, wohin die Daten gehen, wer sie sieht und wie sie verwendet werden.
Diese Datenschutzbedenken führten zur italienischen Datenschutzbehörde
Für Unternehmen besteht die Sorge, dass ChatGPT von Benutzern übermittelte Informationen aufnimmt, daraus lernt und diese möglicherweise bei zukünftigen Interaktionen mit anderen Benutzern preisgibt.
Die Richtlinien von OpenAI für ChatGPT weisen darauf hin, dass Benutzerdaten überprüft und zur Verfeinerung des Systems verwendet werden könnten. Doch was bedeutet das für den Datenschutz?
Die Antwort ist nicht eindeutig, und das ist der Grund für die Besorgnis.
Eine Cyberhaven-Studie ergab, dass bis zum 1. Juni 10,8 % der Arbeitnehmer ChatGPT am Arbeitsplatz nutzten und 8,6 % Unternehmensinformationen eingaben. Die alarmierende Statistik besagt, dass 4,7 % der Arbeitnehmer vertrauliche Informationen in ChatGPT eingegeben haben.
Und aufgrund der Funktionsweise von ChatGPT fehlen herkömmliche Sicherheitsmaßnahmen. Die meisten Sicherheitsprodukte dienen dazu, Dateien vor der Weitergabe oder dem Hochladen zu schützen. Aber ChatGPT-Benutzer kopieren Inhalte und fügen sie in ihre Browser ein.
Jetzt hat OpenAI eine Opt-out-Option hinzugefügt. Nutzer können verlangen, dass ihre Daten nicht für weitere Schulungen verwendet werden.
Das Opt-out ist jedoch nicht die Standardeinstellung. Sofern die Benutzer sich dessen nicht bewusst sind und keine proaktiven Maßnahmen ergreifen, könnten ihre Interaktionen zum Trainieren der KI genutzt werden.
Die Bedenken hören hier nicht auf.
Auch wenn Sie sich abmelden, werden Ihre Daten weiterhin durch das System übertragen. Und während OpenAI den Benutzern versichert, dass Daten verantwortungsvoll verwaltet werden, bietet ChatGPT
Es besteht auch die Gefahr, dass etwas schief geht.
Am 21. März 2023 hat OpenAI ChatGPT aufgrund eines Fehlers geschlossen , bei dem Chatverläufe fälschlicherweise mit Namen verschiedener Benutzer betitelt wurden. Wenn diese Titel private oder sensible Daten enthielten, könnten andere ChatGPT-Benutzer sie gesehen haben. Durch den Fehler wurden auch die persönlichen Daten einiger ChatGPT Plus-Abonnenten offengelegt.
Das erste große ChatGPT-Datenleck ereignete sich Anfang des Jahres und betraf den Technologieriesen Samsung . Laut Bloomberg handelte es sich um sensiblen internen Quellcode
Ein solches Leck kann schwerwiegende Folgen haben.
Und es war nicht nur Samsung. Amazon , ein weiterer Gigant der Technologiebranche, hatte seine eigenen Bedenken. Das Unternehmen
Wenn ChatGPT über die proprietären Daten von Amazon verfügt, was hindert es dann daran, diese versehentlich an Konkurrenten weiterzugeben?
Die rasante Entwicklung und Einführung generativer KI-Tools hat dazu geführt, dass die Regulierungsbehörden aufholen müssen. Es gibt begrenzte Richtlinien für den verantwortungsvollen Umgang.
Wenn es also aufgrund der KI zu einem Datenverstoß kommt, wer ist dann verantwortlich – das Unternehmen, das das Tool nutzt, die Mitarbeiter oder der KI-Anbieter?
In OpenAIs
Das birgt Risiken für Unternehmen. Ohne klare Regelungen bleibt es ihnen überlassen, über die beste Vorgehensweise zu entscheiden. Deshalb werden viele jetzt zögerlicher.
Wenn es um den Einsatz neuer Technologien geht, wenden sich Unternehmen häufig an Technologieführer. Wenn ein Technologieriese eine neue Innovation einführt, wird dies oft als grünes Licht für andere Unternehmen gesehen, diesem Beispiel zu folgen.
Wenn also ein so einflussreiches Unternehmen wie Microsoft hinsichtlich einer Technologie gemischte Signale ausgibt, sind die Auswirkungen branchenübergreifend zu spüren.
Einerseits hat Microsoft Vorbehalte gegenüber dem Einsatz generativer KI-Tools geäußert. Im Januar warnte Microsoft seine Mitarbeiter davor, „sensible Daten“ an ChatGPT weiterzugeben.
Aber Microsoft setzt sich auch für seine eigene Version der Technologie ein, Azure ChatGPT. Diese Iteration verspricht eine sicherere und kontrolliertere Umgebung für Unternehmensbenutzer.
Dieser Schritt wirft Fragen auf: Ist Azure ChatGPT wirklich immun gegen die Risiken, auf die Microsoft in der breiteren generativen KI-Landschaft hingewiesen hat? Oder handelt es sich hierbei um ein strategisches Manöver, um sicherzustellen, dass Unternehmen im Microsoft-Ökosystem bleiben?
Bei der Bewertung einer neuen Technologie geraten Unternehmen oft in ein Tauziehen zwischen den potenziellen Vorteilen und den potenziellen Fallstricken.
Bei ChatGPT scheinen Unternehmen eine abwartende Haltung einzunehmen.
Mit der Weiterentwicklung der Technologie und ihrer Vorschriften besteht die Hoffnung, dass eine sicherere und transparentere Nutzung etabliert werden kann.
Im Moment eignet sich ChatGPT hervorragend für ein wenig Codierungshilfe und Inhalte. Aber ich würde ihm keine proprietären Daten anvertrauen.