paint-brush
Schatten-KI: Die Zukunft neu gestalten, aber zu welchem Preis?by@viceasytiger
1,350
1,350

Schatten-KI: Die Zukunft neu gestalten, aber zu welchem Preis?

Vik Bogdanov7m2024/02/17
Read on Terminal Reader

Als Reaktion auf neu auftretende Sicherheitslücken durch KI-Tools wie Amazon Q und ChatGPT haben große Unternehmen wie Amazon, Samsung und Apple strenge KI-Nutzungsrichtlinien eingeführt. Trotz dieser Bemühungen ist eine „Schatten-KI“-Kultur entstanden, in der Mitarbeiter Beschränkungen umgehen, um KI aus Effizienzgründen zu nutzen, was eine erhebliche Kluft zwischen Politik und Praxis verdeutlicht. Aktuelle Studien zeigen, dass generative KI trotz Unternehmensverboten weit verbreitet inoffiziell am Arbeitsplatz eingesetzt wird. Dieses Szenario verdeutlicht die Herausforderung, Sicherheitsbedenken mit den Vorteilen von KI in Einklang zu bringen, und zwingt Unternehmen dazu, Strategien für das Management von Schatten-KI zu erforschen, einschließlich der Entwicklung umfassender KI-Nutzungsrichtlinien, der Förderung einer Innovationskultur und der Verbesserung der Datenverwaltung, um Risiken zu mindern und das Potenzial von KI verantwortungsvoll zu nutzen .
featured image - Schatten-KI: Die Zukunft neu gestalten, aber zu welchem Preis?
Vik Bogdanov HackerNoon profile picture


Erkundung der Auswirkungen von Shadow AI auf Unternehmen: Risiken, Strategien und das Streben nach einer sicheren, innovativen Zukunft. Wie werden Unternehmen diese neue Grenze meistern?


Im Dezember 2023 stellte Amazon sein neuestes KI- Projekt Q vor, das eine sicherere Alternative zu verbraucherorientierten Chatbots wie ChatGPT verspricht. Die Aufregung war jedoch nur von kurzer Dauer. Nur drei Tage nach der Ankündigung war Amazon Q in Kontroversen verwickelt. Die Mitarbeiter waren über die unzureichenden Sicherheits- und Datenschutzmaßnahmen alarmiert und stellten fest, dass Q die strengen Unternehmensstandards von Amazon nicht erfüllte. Kritiker betonten die Tendenz zu „Halluzinationen“ und der Preisgabe sensibler Informationen, darunter AWS-Rechenzentrumsstandorte, unveröffentlichte Produktfunktionen und interne Rabattprogramme. Die Ingenieure von Amazon wurden in den Schadensbegrenzungsmodus geschaltet und mussten sich mit kritischen Problemen befassen, die als „Schweregrad 2“-Notfall gekennzeichnet waren, um künftige Folgen zu verhindern.


Etwa zur gleichen Zeit hatte Samsung Electronics Co. mit seinen eigenen KI-bedingten Kopfschmerzen zu kämpfen. Sensibler interner Quellcode gelangte in ChatGPT und deckte eklatante Sicherheitslücken auf. Die Reaktion erfolgte schnell: Ein unternehmensweites Verbot generativer KI-Tools wurde in einem internen Memo kommuniziert. Die Entscheidung von Samsung verdeutlichte die Schwierigkeiten bei der Datenverwaltung auf externen KI-Plattformen wie Google Gemini und Microsoft Copilot, bei denen die Kontrolle über den Datenabruf und die Datenlöschung schwer zu fassen ist. Dieser Schritt spiegelte die Bedenken von 65 % der Samsung-Mitarbeiter wider, die diese KI-Dienste als digitales Trojanisches Pferd betrachteten. Trotz der Auswirkungen des Verbots auf die Produktivität blieb Samsung standhaft und entschied sich für die Entwicklung interner KI-Lösungen für die Übersetzung, Dokumentenzusammenfassung und Softwareentwicklung, bis eine sichere KI-Nutzungsumgebung eingerichtet werden konnte.


Auch Apple schloss sich dem Kampf an und verbot seinen Mitarbeitern die Nutzung von ChatGPT und ähnlichen KI-gestützten Tools. Das Verbot wurde teilweise durch die Verbindungen der Tools zu Microsoft, einem direkten Konkurrenten, vorangetrieben, was Befürchtungen hinsichtlich der Sicherheit sensibler Daten von Apple schürte. Dieser Trend war nicht nur den Technologiegiganten vorbehalten; Auch Finanzgiganten wie JPMorgan Chase , Deutsche Bank, Wells Fargo und andere schränkten den Einsatz von KI-Chatbots ein, um sensible Finanzinformationen vor den Augen Dritter zu schützen.


Doch diese Einschränkungen führten unbeabsichtigt zu einer Kultur der „Schatten-KI“, in der Mitarbeiter ihre persönlichen Geräte bei der Arbeit nutzen, um Effizienz und Zeitersparnis zu erzielen, was eine erhebliche Lücke zwischen Politik und Praxis bei der KI-Nutzung verdeutlicht.

Schatten-KI: Unsichtbare Bedrohung

Obwohl konkrete Daten rar sind, haben zahlreiche Personen in Unternehmen mit KI-Beschränkungen zugegeben , solche Problemumgehungen eingesetzt zu haben – das sind nur diejenigen, die offen darüber sind! Dieser Einsatz von Schatten-KI ist in vielen Unternehmen weit verbreitet und fördert den Einsatz von KI auf eine Art und Weise, die im Widerspruch zu den Unternehmensrichtlinien steht oder gegen sie verstößt, und wird so zu einer Aktivität, die Mitarbeiter zu verbergen gezwungen sind.


Als ich mich eingehender mit diesem Thema befasste, stieß ich auf einige aktuelle Studien, die bestätigten, dass trotz zahlreicher Berichte über Unternehmen, die den Einsatz von genAI am Arbeitsplatz einschränken , Mitarbeiter es offenbar nicht weniger nutzen . Aktuelle Untersuchungen von Dell zeigen , dass 91 % der Befragten in ihrem Leben in irgendeiner Weise mit generativer KI experimentiert haben, weitere 71 % gaben an, sie speziell bei der Arbeit eingesetzt zu haben.


Die von ISACA durchgeführte Studie zeigt eine erhebliche Lücke zwischen der Einführung von KI am Arbeitsplatz und den formellen Richtlinien, die ihren Einsatz in Australien und Neuseeland regeln. Während 63 % der Mitarbeiter in diesen Regionen KI für verschiedene Aufgaben nutzen, erlauben nur 36 % der Unternehmen dies offiziell. Die Umfrage zeigt, dass KI zur Erstellung schriftlicher Inhalte (51 %), zur Produktivitätssteigerung (37 %), zur Automatisierung sich wiederholender Aufgaben (37 %), zur Verbesserung der Entscheidungsfindung (29 %) und zum Kundenservice (20 %) eingesetzt wird. Allerdings verfügen nur 11 % der Unternehmen über eine umfassende Richtlinie zur KI-Nutzung und 21 % haben nicht die Absicht, eine solche einzuführen.


Darüber hinaus weist die Studie von ISACA auf einen Mangel an KI-bezogener Schulung in den Unternehmen hin: Nur 4 % bieten diese Schulung für alle Mitarbeiter an und 57 % bieten keine Schulung an, selbst für diejenigen, die direkt von KI-Technologien betroffen sind. Diese Situation wirft ähnliche Bedenken auf wie die Schatten-IT, bei der Mitarbeiter IT-Ressourcen ohne formelle Genehmigung nutzen und möglicherweise die Sicherheit und Governance der Organisation gefährden.


Navigieren durch die neuen Grenzen von Risiko und Verantwortung

Ähnlich wie sich die Schatten-IT an Unternehmen herangeschlichen hat, ist auch die Schatten-KI bereits präsent und zwingt Unternehmen dazu, sich direkt mit ihrer GenAI-Haltung auseinanderzusetzen, während sie gleichzeitig herausfinden müssen, wie sie diese nutzen können.


Experten glauben, dass Leitplanken Mitarbeiter nicht davon abhalten werden, KI-Tools zu nutzen, da sie die Produktivität deutlich steigern und Zeit sparen. Daher müssen sich CIOs von Unternehmen mit diesem Problem auseinandersetzen und Abhilfestrategien entwickeln, die mit der Risikotoleranz ihres Unternehmens in Einklang stehen. Mitarbeiter mit guten Absichten werden diese Tools zwangsläufig nutzen, um ihre Effizienz zu steigern, sodass Technologieleiter in Unternehmen potenziellen Schaden für das Unternehmen verhindern können, indem sie diesen Trend proaktiv angehen und effektiv steuern.


Die Interaktion jedes Mitarbeiters mit KI-Tools kann eine potenzielle Schwachstelle darstellen.


Die Geschichte der Schatten-IT ist von schwerwiegenden Datenverstößen geprägt, wie beispielsweise den berüchtigten Vorfällen mit ungesicherten Amazon S3-Buckets , die zur Offenlegung der persönlichen Daten von 30.000 Personen führten. Diese historischen Präzedenzfälle dienen als warnendes Beispiel und unterstreichen die Notwendigkeit einer strengen Datenverwaltung im Zeitalter der KI.


Schatten-KI ist aus mehreren Gründen eine größere Herausforderung als Schatten-IT. Erstens bedeutet die dezentrale Natur der KI-Tool-Nutzung, dass das Potenzial für Datenmissbrauch oder -lecks nicht auf eine technische Untergruppe von Mitarbeitern (z. B. Entwickler) beschränkt ist, sondern sich über die gesamte Organisation erstreckt. Darüber hinaus lernen AIaaS-Modelle (AI as a Service) von Natur aus aus den Daten, die sie verarbeiten, wodurch eine doppelte Risikoebene entsteht: die Möglichkeit des Zugriffs auf sensible Daten durch KI-Anbieter und die verbesserte Fähigkeit böswilliger Akteure, offengelegte Daten zu entdecken und auszunutzen.

Strategien zur Bekämpfung der Schatten-KI

Laut Amir Sohrabi , regionaler Vizepräsident für EMEA und Asien und Leiter der digitalen Transformation bei SAS, werden Technologieführer mit einer datenorientierten Denkweise im Jahr 2024 und darüber hinaus in der Lage sein, die Effizienz zu steigern. Denn die Maximierung der Vorteile generativer KI-Tools hängt von gut organisierten Daten ab und erfordert robuste Datenverwaltungspraktiken, die Datenzugriff, Hygiene und Governance umfassen.


In seinem Artikel für CIO.com weist Nick Brackney, Gen AI & Cloud Evangelist Leader bei Dell Technologies, auf „drei präskriptive Wege“ hin, die Unternehmen nutzen sollten, um Shadow AI erfolgreich zu bekämpfen.


Legen Sie zunächst eine zentralisierte Strategie für die generative KI-Nutzung fest und beziehen Sie dabei die Führungsebene mit ein, um Anwendungsfälle zu definieren, sicheren Zugriff zu schaffen und Daten zu schützen. Dieser Ansatz vereinfacht die Durchsetzung und Skalierung im gesamten Unternehmen und erfordert gleichzeitig Aufwand für den Aufbau und die Identifizierung einfacher Erfolge, um den Erfolg sicherzustellen.


Zweitens: Halten Sie Ihre Daten organisiert und verstehen Sie, welche Arten nicht in öffentlichen oder gehosteten privaten Cloud-KI-Angeboten abgelegt werden sollten, wie etwa Geschäftsgeheimnisse und sensible Informationen. Verwenden Sie KI-Lösungen, die eine vollständige Kontrolle ermöglichen, oder führen Sie keine Gesprächsprotokolle für diese Art von Daten.


Drittens steuern Sie den KI-Dienst, indem Sie ihn auf Ihre Daten übertragen, sei es vor Ort oder über sichere Cloud-Lösungen, um Vorteile in Bezug auf Governance, Mitarbeiterproduktivität und sicheren Datenzugriff zu nutzen. Dieser Ansatz verbessert das Endbenutzererlebnis, gewährleistet die Einhaltung von Vorschriften und verringert das Risiko einer Datenoffenlegung.


Die Ausarbeitung einer klaren Richtlinie zur akzeptablen Nutzung von KI ist von entscheidender Bedeutung, um unzulässige KI-Praktiken abzugrenzen, die Ihrem Unternehmen möglicherweise schaden könnten, und um die Integration von KI-Anwendungen im Einklang mit Datensicherheitsprotokollen und Risikomanagementstrategien zu steuern. Diese Richtlinie dient als Benchmark und ermöglicht es Entscheidungsträgern, den Einsatz von KI-Tools innerhalb der Organisation anhand etablierter Richtlinien zu bewerten, etwaige Risikopotenziale schnell zu ermitteln und die erforderlichen Korrekturmaßnahmen festzulegen.


Ethan Mollick, Professor an der Wharton School der University of Pennsylvania, bietet einen weiteren zum Nachdenken anregenden Ansatz. Er glaubt, dass herkömmliche Methoden zur Integration neuer Technologien aufgrund ihrer zentralisierten Natur und langsamen Geschwindigkeit für die KI unwirksam sind, was es für IT-Abteilungen schwierig macht, wettbewerbsfähige interne KI-Modelle zu entwickeln oder für Berater, spezifische Anleitungen zu geben. Das eigentliche Potenzial für die Anwendung von KI liegt bei den Mitarbeitern, die Experten in ihrem eigenen Beruf sind. Damit Unternehmen wirklich von KI profitieren können, müssen sie ihre Belegschaft (auch bekannt als „Secret Cyborgs“) für den Einsatz von KI-Technologien gewinnen.


Zuallererst sollten Marken anerkennen, dass Mitarbeiter auf jeder Ebene über wertvolle KI-Fähigkeiten verfügen können, unabhängig von ihrer formellen Rolle oder früheren Leistung. Nachdem Unternehmen die geheimen Cyborgs unter ihren KI-erfahrenen Mitarbeitern entdeckt haben, müssen sie eine kollektive Lernumgebung wie Crowdsourcing-Promptbibliotheken fördern und eine Kultur schaffen, die die Befürchtungen gegenüber KI verringert, indem sie Garantien gegen Arbeitsplatzverluste aufgrund von KI bietet und den Einsatz von KI fördert KI zur Eliminierung alltäglicher Aufgaben und zur Förderung engagierterer Arbeit.


Die Schaffung psychologischer Sicherheit ist von entscheidender Bedeutung, um die offene KI-Nutzung bei Mitarbeitern zu fördern.


Arbeitgeber sollten in der Lage sein, erhebliche Belohnungen anzubieten, wenn sie bedeutende Möglichkeiten identifizieren, bei denen KI dem Unternehmen helfen kann. Dies kann finanzielle Anreize, Beförderungen oder flexible Arbeitsbedingungen umfassen und durch Gamification gehandhabt werden.


Heutige Unternehmen sollten schnell handeln, um zu bestimmen, wie Produktivitätsgewinne durch KI genutzt werden, wie Arbeitsprozesse im Lichte der KI-Fähigkeiten neu organisiert werden sollten und wie potenzielle Risiken im Zusammenhang mit der KI-Nutzung wie Datenhalluzinationen und IP-Bedenken gemanagt werden können. Dies erfordert einen proaktiven Ansatz zur Ausarbeitung umfassender KI-Richtlinien, die Einbindung von Mitarbeitern auf allen Ebenen, um ihre Erkenntnisse zu nutzen, und die Förderung einer Kultur, die KI-gesteuerte Innovationen belohnt.


Welche Strategien werden Sie einsetzen, um diese transformative Technologie verantwortungsvoll und innovativ in Ihrem Unternehmen oder bei persönlichen Projekten zu nutzen, während sich Technikbegeisterte und Unternehmen mit der Komplexität der KI-Integration auseinandersetzen und einen ausgewogenen Ansatz für Datenschutz, Sicherheit und Effizienz gewährleisten?


Vergessen Sie nicht, meinen vorherigen Artikel zu lesen, um das schmutzige Geheimnis der KI zu entdecken!