paint-brush
Strategien für eine verantwortungsvolle KI-Governancevon@hackerclup7sajo00003b6s2naft6zw
252 Lesungen

Strategien für eine verantwortungsvolle KI-Governance

von Priyanka Neelakrishnan10m2024/05/07
Read on Terminal Reader

Zu lang; Lesen

Da der Einfluss der KI zunimmt, wird eine robuste Governance unverzichtbar. Von der Unterscheidung zwischen generativen und diskriminativen KI-Modellen bis hin zur Implementierung umfassender Risikobewertungs- und Compliance-Frameworks sorgt die KI-Governance für Transparenz, Datensicherheit und ethische KI-Praktiken und legt damit den Grundstein für langfristige Vorteile und die Einhaltung gesetzlicher Vorschriften.
featured image - Strategien für eine verantwortungsvolle KI-Governance
Priyanka Neelakrishnan HackerNoon profile picture
0-item
1-item


Die flächendeckende Einführung künstlicher Intelligenz erfordert methodische Leitplanken zur Steuerung, Verwaltung und Sicherung ihrer Nutzung.


In jüngster Zeit hat die Nutzung künstlicher Intelligenz weltweit deutlich zugenommen und ist in jeden Aspekt der digitalen Landschaft eingedrungen. Von der automatisierten Verarbeitung bis hin zu fortschrittlichen Algorithmen wird künstliche Intelligenz langsam zu einem integralen Bestandteil unseres täglichen Lebens und unserer Geschäftsabläufe. Der Einsatz künstlicher Intelligenztechnologien in verschiedenen Branchen und Sektoren nimmt in beispiellosem Ausmaß und exponentiell zu. Dies hat auch tiefgreifende Auswirkungen auf die Gesellschaft sowie Gefahren und Risiken für die Grundrechte des Einzelnen zur Folge.

Was ist künstliche Intelligenz?

Künstliche Intelligenz (KI) ist ein weites Feld, das verschiedene Techniken und Ansätze des maschinellen Lernens, der Logik und des Wissens umfasst, um Systeme zu erstellen, die Aufgaben ausführen können, die normalerweise von Menschen ausgeführt werden oder menschliche kognitive Fähigkeiten erfordern. Dazu gehören Aufgaben wie die Verarbeitung natürlicher Sprache, Bilderkennung, Problemlösung und Entscheidungsfindung. Gemäß dem KI-Gesetz der Europäischen Union und dem OECD-Bericht zum KI-Risikomanagement ist ein KI-System ein maschinenbasiertes System, das für explizite oder implizite Ziele aus den empfangenen Eingaben schließt, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generiert werden können, die physische oder virtuelle Umgebungen beeinflussen können.


Es gibt zwei allgemeine Unterteilungen:

  • Diskriminative KI – kann nur Datenklassifizierung durchführen. Beispiel: logistische Regression, k-Nearest Neighbors, Support Vector Machines und Gradient-Boosted Decision Trees. Neuronale Architekturen wie Convolutional Neural Networks (CNN) und Long Short-Term Memory (LSTM)-Einheiten werden häufig verwendet, um diskriminative Modelle angemessener Größe für sehr lange und unterschiedlich lange Eingaben zu erstellen.
  • Generative KI – Generierung neuer Inhalte, die den Inhalten ähneln, mit denen sie trainiert wurde. Beispiel: Generative Adversarial Networks (GANs), Diffusionsmodelle und autoregressive Modelle.


GANs sind maschinelle Lernframeworks, die aus zwei neuronalen Netzwerken bestehen, einem Generator und einem Diskriminator. Der Generator generiert Daten, indem er ihm zugeführtes zufälliges Rauschen in ein Zielformat bringt. Generatoren allein können die Qualität ihrer Ausgabe nicht beurteilen. Hier kommt das Diskriminatormodell ins Spiel. Der Diskriminator zielt darauf ab, zwischen echten und vom Generator generierten gefälschten Daten zu unterscheiden. Die beiden werden gleichzeitig trainiert, wobei der Diskriminator darauf trainiert wird, zwischen echten und Generatordaten zu unterscheiden, und der Generator darauf trainiert wird, den Diskriminator durch die Erstellung zunehmend realistischerer Daten zu verwirren. Im Laufe des Trainings wird jedes Modell bei seiner Aufgabe immer besser, sodass der Generator realistisch aussehende Inhalte erstellen kann. Die Herausforderung bei GANs besteht darin, sie zu trainieren. Beispielsweise können GANs beim Training einen Modellkollaps erleiden, bei dem der Generator nur lernt, eine kleine Vielfalt von Proben zu generieren, die ausreicht, um den Diskriminator zu verwirren, aber nicht ausreicht, um nützlich zu sein. Hier kommt das Diffusionsmodell ins Spiel. Im Wesentlichen werden Diffusionsmodelle darauf trainiert, Trainingsdaten aus Versionen mit Rauschfeld wiederherzustellen. Nach dem Training kann die Diffusion aus einem reinen Rauscheingang völlig neue Bilder hervorbringen. Es erstellt iterativ ein Bild durch einen schrittweisen Rauschunterdrückungsprozess.


Autoregressive Modelle basieren auf Statistiken. Sie generieren Datensequenzen, indem sie die Wahrscheinlichkeit des nächsten Elements in einer Sequenz modellieren, die von den vorherigen Elementen abhängig ist. Das nächste Element wird dann zufällig aus dieser Verteilung ausgewählt, wobei ein „Temperatur“-Parameter verwendet werden kann, um die Ergebnisse deterministischer oder zufälliger zu gestalten, und der Vorgang wird wiederholt. Beliebte neuronale Netzwerkkomponenten für autoregressive Modelle sind LSTMs und Transformatoren (die es neuronalen Netzwerken ermöglichen, Muster in sehr großen Mengen von Texttrainingsdaten zu lernen). Anstatt einfach eine Sequenz abzuschließen, die ihnen zugeführt wird, fügen wir autoregressiven Modellen eine Ausrichtungsphase hinzu. Hier wird das Modell zusätzlich trainiert, um bestimmte Eingabe-Ausgabe-Paare anderen vorzuziehen, basierend auf menschlichem Feedback. Beispielsweise hat die Ausrichtung in LLMs Modellen erfolgreich beigebracht, wie sie auf Fragen und Befehle reagieren sollen (bestärkendes Lernen).


Hauptvorteile der KI

  • Automatisierung für mehr Effizienz – Automatisieren Sie sich wiederholende Aufgaben, um die Produktivität und betriebliche Effizienz zu steigern.
  • Datengesteuerte Erkenntnisse – Extrahieren Sie wertvolle Erkenntnisse aus großen Datensätzen und verschaffen Sie Unternehmen durch datengesteuerte Entscheidungsfindung einen Wettbewerbsvorteil.
  • Kreative Problemlösung – innovative Lösungen und Ideen generieren, auch wenn die Anweisungen mehrdeutig oder unvollständig sind, und so die Problemlösungskompetenz und Kreativität fördern;
  • Inhaltserstellung – produzieren Sie schnell und im großen Maßstab qualitativ hochwertige Inhalte, die dem Content-Marketing, der Werbung und der Kundenbindung zugute kommen;
  • Autonome Entscheidungsfindung – ermöglicht ein Maß an autonomer Entscheidungsfindung, das mit früheren KI-Generationen nicht möglich war.

Bedeutung von Daten in der generativen KI

Daten spielen eine zentrale Rolle bei der Entwicklung von Modellen der generativen KI, insbesondere von Large Language Models (LLMs). Diese Modelle sind für Training und Verfeinerung auf riesige Datenmengen angewiesen. ChatGPT von OpenAI wurde beispielsweise anhand eines umfangreichen Datensatzes trainiert, der über 45 Terabyte an Textdaten umfasst, die aus dem Internet gesammelt wurden, darunter digitalisierte Bücher und Wikipedia-Einträge. Der umfangreiche Bedarf an Datenerfassung bei der generativen KI kann jedoch erhebliche Bedenken aufwerfen, darunter die unbeabsichtigte Erfassung und Verwendung personenbezogener Daten ohne die Zustimmung der Betroffenen. Die KI-Forscher von Google haben auch anerkannt, dass diese Datensätze, die oft groß sind und aus verschiedenen Quellen stammen, vertrauliche personenbezogene Daten enthalten können, selbst wenn sie aus öffentlich verfügbaren Daten stammen.


Es gibt im Wesentlichen zwei gängige Quellen für die Datenerfassung:

  • Öffentlich zugängliche DatenWeb Scraping ist die am häufigsten verwendete Methode zum Sammeln von Daten. Dabei werden große Mengen an Informationen aus öffentlich zugänglichen Webseiten extrahiert. Diese Daten werden dann zu Trainingszwecken verwendet oder können für den Verkauf wiederverwendet oder anderen KI-Entwicklern kostenlos zur Verfügung gestellt werden. Durch Web Scraping gewonnene Daten enthalten häufig persönliche Informationen, die von Benutzern auf Social-Media-Plattformen wie Facebook, Twitter, LinkedIn, Venmo und anderen Websites geteilt werden. Während Einzelpersonen aus verschiedenen Gründen persönliche Informationen auf solchen Plattformen veröffentlichen, beispielsweise um Kontakt zu potenziellen Arbeitgebern aufzunehmen oder neue Freunde zu finden, beabsichtigen sie normalerweise nicht, ihre Daten zum Trainieren generativer KI-Modelle zu verwenden.


  • Benutzerdaten – Daten, die von Benutzern mit generativen KI-Anwendungen wie Chatbots geteilt werden, können ohne das Wissen oder die Zustimmung der betroffenen Personen gespeichert und für Schulungszwecke verwendet werden. Beispielsweise könnten Benutzer, die mit Chatbots interagieren, die Gesundheitsberatung, Therapie, Finanzdienstleistungen und andere Dienste anbieten, vertrauliche persönliche Informationen preisgeben. Während solche Chatbots möglicherweise Servicebedingungen bereitstellen, in denen erwähnt wird, dass Benutzerdaten zur „Entwicklung und Verbesserung des Dienstes“ verwendet werden können, könnten Kritiker argumentieren, dass generative KI-Modelle die ausdrückliche Zustimmung der Benutzer einholen oder klare Angaben zur Erfassung, Verwendung und Aufbewahrung von Benutzerdaten machen sollten.


Viele Organisationen haben zudem generative KI-Modelle in ihre Produkte oder Dienstleistungen integriert, um ihr Angebot zu verbessern. In manchen Fällen kann eine solche Integration auch als Datenquelle dienen, darunter auch personenbezogene Daten der Verbraucher, um diese Modelle zu trainieren und zu optimieren.


Zu den potenziellen Bedrohungen zählen:

  • Unbefugte Massenüberwachung von Individuen und Gesellschaften
  • Unerwartete und unbeabsichtigte Verstöße gegen den Schutz personenbezogener Daten
  • Massenhafte Manipulation personenbezogener Daten zu unterschiedlichen Zwecken
  • Generierung glaubwürdiger und manipulativer Deep Fakes von Einzelpersonen
  • Die Einflüsse kultureller Voreingenommenheit, Rassismus und Vorurteile auf rechtliche und gesellschaftlich bedeutsame Ergebnisse verstärken und gleichzeitig verschleiern
  • Verstoß gegen die Datenschutzgrundsätze der Zweckbindung, Speicherbegrenzung und Datenminimierung
  • Diskriminierung bestimmter Personengruppen und gesellschaftliche Voreingenommenheit
  • Desinformation und die Darstellung sachlich falscher Informationen
  • Geistiges Eigentum und Urheberrechtsverletzungen


KI-Governance

Da wir in eine Ära eintreten, die stark von generativen KI-Technologien geprägt ist, wird die Steuerung künstlicher Intelligenz zu einer immer wichtigeren Priorität für Unternehmen, die die sichere Nutzung von Daten und KI ermöglichen und gleichzeitig rechtliche und ethische Anforderungen erfüllen möchten. Im Oktober 2023 rechtfertigte die „sichere und vertrauenswürdige“ Nutzung künstlicher Intelligenz eine Executive Order der Biden-Harris-Regierung in den USA, eine Veröffentlichung, die kurz nach dem AI Act der EU erfolgte, dem weltweit ersten umfassenden KI-Gesetz. Andere Länder wie China, Großbritannien und Kanada und sogar eine Reihe von US-Bundesstaaten haben ihre eigenen Grenzen gezogen und entweder Gesetze vorgeschlagen oder erlassen, die die Bedeutung von Sicherheit, Schutz und Transparenz in der KI hervorheben.


Produktmanager und Unternehmensleiter im Allgemeinen müssen diese Denkweise der sicheren KI-Nutzung übernehmen, während sie KI in ihre Geschäftspraktiken integrieren. Eine effektive KI-Governance bietet Kontrolle und Aufsicht und stellt sicher, dass Unternehmen ihre KI-Dienste verantwortungsbewusst, ethisch und in Übereinstimmung mit internen Richtlinien und externen Vorschriften auf dokumentierte, effiziente und nachweisbare Weise entwickeln und verwalten. Dies wird es Unternehmen ermöglichen, Vertrauen aufrechtzuerhalten und gleichzeitig Rechenschaftspflicht zu schaffen.


Unter KI-Governance versteht man die Einführung von Rahmenbedingungen, Regeln, Standards, gesetzlichen Anforderungen, Richtlinien und Best Practices, die den Einsatz künstlicher Intelligenz regeln, verwalten und überwachen. Dabei geht es darum, KI-Aktivitäten zu lenken, zu verwalten und zu überwachen, um rechtliche und ethische Anforderungen zu erfüllen. In ethischer Hinsicht müssen sich Unternehmen darauf konzentrieren, ein hohes Maß an Transparenz, Sicherheit und Schutz ihrer KI-Modelle zu gewährleisten, um das Vertrauen der Kunden aufzubauen und aufrechtzuerhalten. In rechtlicher Hinsicht müssen Unternehmen die gesetzlichen Anforderungen erfüllen und die Aufsichtsbehörden zufriedenstellen, sonst riskieren sie erhebliche Geldstrafen und einen Schaden für den Ruf ihrer Marke.


McKinsey schätzt, dass generative KI künftig einen jährlichen Wertbeitrag zwischen 2,6 und 4,4 Billionen US-Dollar leisten könnte. Um dieses Potenzial auszuschöpfen, müssen Unternehmen KI jedoch auf transparente, sichere und vertrauenswürdige Weise implementieren. Gartner geht sogar davon aus, dass Unternehmen, die sichere und vertrauenswürdige KI erfolgreich umsetzen, eine Steigerung ihrer KI-Nutzung und der Erreichung ihrer Geschäftsziele um 50 % verzeichnen könnten.


Schlüsselfaktoren für die KI-Governance in Unternehmen

Dazu gehören die folgenden:

  • Innovation – KI-Governance bietet einen strukturierten und dennoch flexiblen Rahmen, der verantwortungsvolle Innovationen fördert.
  • Effizienz – Durch die Standardisierung und Optimierung der KI-Entwicklung und -Bereitstellung ermöglicht KI-Governance Unternehmen, KI-Produkte schneller auf den Markt zu bringen und gleichzeitig die Kosten zu senken.
  • Compliance – KI-Governance richtet KI-Lösungen und Entscheidungsfindung an Branchenvorschriften und globale Rechtsstandards aus. Dadurch wird sichergestellt, dass KI-Praktiken den gesetzlichen Anforderungen entsprechen, wodurch rechtliche Risiken für das Unternehmen reduziert und die Einhaltung gesetzlicher Vorschriften gefördert wird.
  • Vertrauen – KI-Governance konzentriert sich auf den Aufbau vertrauenswürdiger und transparenter KI-Systeme. Diese Praxis ist entscheidend, um die Rechte und die Zufriedenheit der Kunden zu wahren und gleichzeitig den Markenwert des Unternehmens zu schützen. Vertrauenswürdige KI stärkt das Vertrauen und die Loyalität der Kunden und verringert gleichzeitig das Risiko regulatorischer Maßnahmen.


Ein Beispiel für ein von Gartner entwickeltes KI-Governance-Framework ist AI TRiSM – AI Trust, Risk and Security Management Framework, das sich auf Risikominimierung und die Einhaltung von Datenschutzgesetzen bei der Verwendung von KI konzentriert. Es beruht auf vier Säulen: 1) Erklärbarkeit und Modellüberwachung – um Transparenz und Zuverlässigkeit zu gewährleisten. 2) Modellbetrieb – umfasst die Entwicklung von Prozessen und Systemen zur Verwaltung von KI-Modellen während ihres gesamten Lebenszyklus. 3) KI-Anwendungssicherheit – um Modelle sicher und vor Cyberbedrohungen geschützt zu halten. 4) Modelldatenschutz – um die zum Trainieren oder Testen von KI-Modellen verwendeten Daten zu schützen, indem Datenflüsse gemäß Datenschutzgesetzen (Datenzweck/Speicherbeschränkungen, Datenminimierung/Datenschutzgrundsätze) verwaltet werden. Insgesamt ist TRiSM ein Ansatz zur Verbesserung der Zuverlässigkeit, Vertrauenswürdigkeit, Sicherheit und Privatsphäre von KI-Modellen.


Maßnahmen für eine bessere KI-Governance

  • Verbesserte Transparenz in KI-Systemen – Entdecken und Katalogisieren von KI-Modellen. Ziel ist es, Unternehmen einen vollständigen und umfassenden Überblick über ihre KI-Nutzung zu geben, indem Details aller KI-Modelle identifiziert und aufgezeichnet werden, die in öffentlichen Clouds, privaten Umgebungen und Apps von Drittanbietern verwendet werden. Dies umfasst die Zwecke, Trainingsdaten, Architektur, Eingaben, Ausgaben und Interaktionen der Modelle, einschließlich nicht dokumentierter oder nicht genehmigter KI-Modelle. Die Erstellung eines zentralen Katalogs dieser Informationen verbessert die Transparenz, Governance und die effektive Nutzung von KI und unterstützt bessere Entscheidungen und ein besseres Risikomanagement. Dies ist unerlässlich, um die gesamte Bandbreite der KI-Anwendungen offenzulegen und operative Silos innerhalb der Organisation aufzubrechen.


  • Umfassende Risikobewertung – Risiken bewerten und KI-Modelle klassifizieren. Ziel ist es, die Risiken ihrer KI-Systeme in der Vorentwicklungs- und Entwicklungsphase zu bewerten und Maßnahmen zur Risikominderung zu ergreifen. Dabei werden Modellkarten genutzt, die vordefinierte Risikobewertungen für KI-Modelle bieten, einschließlich Modellbeschreibungen, Verwendungszweck, Einschränkungen und ethischen Überlegungen. Diese Risikobewertungen liefern umfassende Details zu Aspekten wie Toxizität, Böswilligkeit, Voreingenommenheit, Urheberrechtsüberlegungen, Halluzinationsrisiken und sogar Modelleffizienz in Bezug auf Energieverbrauch und Inferenzlaufzeit. Basierend auf diesen Bewertungen können Organisationen entscheiden, welche Modelle für die Bereitstellung und Verwendung genehmigt werden, welche Modelle blockiert werden sollen und welche Modelle vor der Verwendung zusätzliche Schutzmaßnahmen benötigen.


  • Transparente Datenpraktiken – Daten KI-Flüsse zuordnen und überwachen. Daten fließen in die KI-Systeme zum Trainieren, Optimieren und für Inferenzen und Daten fließen als Ausgabe aus den KI-Systemen heraus. Unternehmen können so den gesamten Kontext ihrer KI-Modelle und KI-Systeme aufdecken. Das heißt, KI-Modelle und -Systeme werden zugehörigen Datenquellen und -systemen, Datenverarbeitung, SaaS-Anwendungen, potenziellen Risiken und Compliance-Verpflichtungen zugeordnet. Diese umfassende Zuordnung ermöglicht es Datenschutz-, Compliance-, Sicherheits- und Datenteams, Abhängigkeiten zu identifizieren, potenzielle Fehlerquellen zu lokalisieren und sicherzustellen, dass die KI-Governance proaktiv und nicht reaktiv ist.


  • Robuste Sicherheitskontrollen – Implementieren Sie Daten-KI-Kontrollen. Dies ermöglicht die Einrichtung strenger Kontrollen für die Sicherheit und Vertraulichkeit von Daten, die sowohl in KI-Modelle eingegeben als auch von diesen generiert werden. Zu diesen Kontrollen gehören Datensicherheits- und Datenschutzkontrollen, die durch Sicherheitsrahmen bzw. Datenschutzgesetze vorgeschrieben sind. Beispielsweise können Redaktions- oder Anonymisierungstechniken angewendet werden, um identifizierbare Werte aus Datensätzen zu entfernen. Dies gewährleistet die sichere Aufnahme von Daten in KI-Modelle und entspricht den Datenrichtlinien des Unternehmens und den Benutzerberechtigungen. Wenn vertrauliche Daten in LLM-Modelle gelangen, wird deren Sicherung äußerst schwierig. Ebenso wird die Sicherung schwieriger, wenn Unternehmensdaten in Vektorformen umgewandelt werden. Auf der Seite der Datengenerierung und -ausgabe erfordert der Schutz von KI-Interaktionen Vorsicht vor externen Angriffen, böswilliger interner Nutzung und Fehlkonfigurationen. Um sichere Gespräche mit KI-Assistenten, Bots und Agenten zu gewährleisten, sollten LLM-Firewalls eingesetzt werden, um schädliche Eingabeaufforderungen, Abfragen und Antworten zu filtern. Diese Firewalls sollten in der Lage sein, sich gegen verschiedene Schwachstellen zu verteidigen, die in den OWASP Top 10 für LLMs und in den NIST AI RMF-Frameworks hervorgehoben werden, darunter Eingabeaufforderungsinjektionsangriffe und Datenexfiltrationsangriffe.


  • Sorgfältige Einhaltung von regulatorischen Rahmenbedingungen – halten Sie sich an Vorschriften. Unternehmen, die KI-Systeme verwenden, müssen KI-spezifische Vorschriften und Standards sowie Datenschutzverpflichtungen einhalten, die sich auf die Verwendung von KI beziehen. Um diesen anspruchsvollen Compliance-Prozess zu optimieren, können Unternehmen eine umfassende, auf KI zugeschnittene Compliance-Automatisierung nutzen. Ein solches System bietet einen umfassenden Katalog globaler KI-Vorschriften und -Frameworks, darunter unter anderem das NIST AI RMF und den EU AI Act. Es erleichtert die Erstellung unterschiedlicher KI-Projekte innerhalb seines Rahmens, sodass Benutzer die erforderlichen Kontrollen für jedes Projekt identifizieren und anwenden können. Dieser Prozess umfasst sowohl automatisierte Prüfungen als auch Bewertungen, die Input von Stakeholdern erfordern und einen ganzheitlichen Ansatz zur Gewährleistung der Compliance bieten.


Vorteile der Implementierung von AI Governance

Unternehmen, die KI-Governance erfolgreich implementieren, erreichen

a) Volle Transparenz über ihre genehmigten und nicht genehmigten KI-Systeme

b) Klare Sichtbarkeit der KI-Risiken

c) Abbildung von KI und Daten

d) Starke automatisierte KI + Datenkontrollen

e) Einhaltung globaler KI-Vorschriften.


Insgesamt müssen wir den sicheren Einsatz von KI gewährleisten. Auch wenn die Priorisierung der Sicherheit kurzfristig zu etwas geringeren Unternehmensgewinnen führen kann, sind die mittel- und langfristigen Vorteile beträchtlich.