paint-brush
KI-Governance und Cybersicherheit in Einklang bringenvon@shashankyadav
373 Lesungen
373 Lesungen

KI-Governance und Cybersicherheit in Einklang bringen

von Shashank Yadav9m2023/10/01
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Im Bereich der KI-Sicherheit und -Governance geraten Metarichtlinien oft in den Hintergrund, sodass die sich entwickelnde Bedrohungslandschaft nur unzureichend berücksichtigt wird. Als entscheidende Lösung erweist sich die multilaterale Zusammenarbeit, die Multistakeholderismus und Top-Down-Ansätze vereint. Dieser Artikel befasst sich mit den Herausforderungen, der Politik und möglichen Reformen, die erforderlich sind, um die Prozesse und Richtlinien zu schützen, die KI-Systeme vorantreiben, und nicht nur die Ergebnisse.
featured image - KI-Governance und Cybersicherheit in Einklang bringen
Shashank Yadav HackerNoon profile picture
0-item



Kürzlich reiste Sam Altman durch die Welt und versuchte (vielleicht), die globalen KI-Entwicklungen regulatorisch zu erfassen. Kein Wunder, dass OpenAI Open-Source-KI überhaupt nicht mag. Dennoch geht es in diesem Beitrag nicht um die KI-Entwicklung, sondern um ihre Sicherheits- und Standardisierungsherausforderungen. Im Allgemeinen werden eine fortschrittliche Cyber-Bedrohungsumgebung sowie das Cyber-Situationsbewusstsein und die Reaktionsfähigkeiten der Verteidiger (im Folgenden gemeinsam als „Sicherheitsautomatisierungsfunktionen“ bezeichnet) überwiegend durch Automatisierung und KI-Systeme gesteuert. Um sich ein Bild zu machen, nehmen Sie heute etwas so Einfaches wie das Überprüfen und Beantworten Ihres Gmail-Kontos und zählen Sie die Ebenen der KI und Automatisierung auf, die zur Sicherung und Orchestrierung dieser einfachen Aktivität beitragen können.


Daher müssen sich alle Organisationen von nennenswerter Größe und Komplexität auf Sicherheitsautomatisierungssysteme verlassen, um ihre Cybersicherheitsrichtlinien zu beeinflussen. Was oft übersehen wird, ist, dass es auch einige Cybersicherheits-„ Metarichtlinien “ gibt, die die Implementierung dieser Sicherheitsautomatisierungssysteme ermöglichen. Dazu können die automatisierten Mechanismen zum Austausch von Bedrohungsdaten, die zugrunde liegenden Zuordnungskonventionen und Systeme zur Wissensproduktion/-verwaltung gehören. All dies ermöglicht eine Erkennungs- und Reaktionsstrategie, die von Vermarktern und Anwälten oft als „aktive Verteidigung“ oder „proaktive Cybersicherheit“ bezeichnet wird. Wenn Sie jedoch eine nationale Cybersicherheitspolitik in die Hand nehmen, werden Sie kaum etwas zu diesen Metarichtlinien finden – denn sie sind oft implizit und werden größtenteils durch Einflussnahme und Nachahmung (d. h. Netzwerkeffekte) und nicht so sehr durch Einfluss in nationale Umsetzungen gebracht formelle oder strategische Überlegungen.


Diese Metarichtlinien der Sicherheitsautomatisierung sind wichtig für die KI-Governance und -Sicherheit, da letztendlich alle diese KI-Systeme, ob vollständig digital oder cyber-physisch, innerhalb der breiteren Cybersicherheits- und strategischen Matrix existieren. Wir müssen uns fragen, ob eine Nachrüstung der vorherrschenden Automatisierungsmetarichtlinien für die Zukunft der KI von Nutzen wäre oder nicht.


Pfadabhängigkeit vermeiden

Angesichts der Tendenz zur Pfadabhängigkeit in automatisierten Informationssystemen funktioniert die weitere Verankerung in den neueren und angrenzenden Bereichen der Sicherheitsautomatisierung, wie dem intelligenten/vernetzten Fahrzeug-Ökosystem, bisher gut. Darüber hinaus werden die Entwicklungen bei der Sicherheit von Software auf Rädern problemlos auf eine Vielzahl komplexer Automobilsysteme übertragen, von vollständig digitalisierten Panzern , die eine geringere Besatzungsgröße und eine erhöhte Tödlichkeit versprechen, bis hin zu Standards für das automatisierte Flottensicherheitsmanagement Drohnen-Transportsysteme. Folglich gibt es eine Zunahme von Fahrzeug-SOCs (Security Operations Centers), die nach dem Vorbild von Cybersicherheits-SOCs arbeiten und ähnliche Datenaustauschmechanismen verwenden und dabei die gleichen Implementierungen der Sicherheitsautomatisierung und Informationsverteilung übernehmen. Das wäre vollkommen in Ordnung, wenn die vorhandenen Mittel gut genug wären, um sich blind an die neue Bedrohungsumgebung anzupassen. Doch davon sind sie weit entfernt.


Beispielsweise nutzen die meisten Datenaustausche zu Cybersicherheitsbedrohungen das Traffic Light Protocol (TLP) , allerdings ist TLP selbst nur eine Klassifizierung von Informationen – seine Ausführung und alle Verschlüsselungssysteme, um die Verteilung wie beabsichtigt einzuschränken, werden den Entwicklern der Sicherheitsautomatisierung überlassen Systeme. Daher besteht nicht nur Bedarf an detaillierteren und umfassenderen Kontrollen für den Datenaustausch mit vollständig oder teilweise automatisierten Systemen, sondern auch an der Sicherstellung der Einhaltung dieser Vorschriften. Viele der Richtlinien zur Bedrohungskommunikation wie das TLP ähneln dem berüchtigten Tallinn-Handbuch, da sie fast ein Ausdruck von Meinungen sind, deren Umsetzung Cybersicherheitsanbieter möglicherweise in Betracht ziehen oder auch nicht. Problematischer wird es, wenn Bedrohungsdatenstandards die automatische Erkennung und Reaktion abdecken sollen (wie es bei der Automobil- und Industrieautomation der Fall ist) – und möglicherweise eine geeignete Datensicherheits- und Austauschrichtlinie integriert ist, weil keine Compliance-Anforderungen vorliegen Also.


Ein weiteres Beispiel für inkonsistente Metarichtlinien unter zahlreichen anderen ist der jüngste Aufstieg von Sprachgenerierungssystemen und Konversations-KI-Agenten. Die Sache ist, dass nicht alle Konversationsagenten große neuronale Netze im ChatGPT-Stil sind. Die meisten davon werden seit Jahrzehnten als regelbasierte, aufgabenspezifische Sprachgenerierungsprogramme eingesetzt. Ein „gemeinsames Betriebsbild“ durch Dialogmodellierung und diagrammbasierte Darstellung des Kontexts zwischen solchen Programmen zu haben (wie es eine Organisation, die in mehreren Bereichen/Theatern tätig ist, erfordern könnte) war eine ständige Herausforderung, bevor die Welt auf „Aufmerksamkeit ist alles, was Sie brauchen“ stolperte. Im Grunde genommen verfügen wir nun also über eine riesige veraltete IT-Infrastruktur im Bereich der Mensch-Maschine-Schnittstelle und ein multimodales KI-Automatisierungsparadigma, das diese in Frage stellt. Unternehmen, die sich einer „digitalen Transformation“ unterziehen, müssen nicht nur die Übernahme technischer Altschulden vermeiden, sondern auch die Ressourcen und organisatorischen Anforderungen für den effizienten Betrieb eines KI-zentrierten Bereitstellungsmodells berücksichtigen. Verständlicherweise möchten einige Organisationen (einschließlich Regierungen) möglicherweise nicht sofort eine vollständige Transformation. Da es an einem standardisierten Daten- und Kontextaustausch zwischen den aufkommenden und den veralteten automatisierten Systemen mangelt, werden viele Benutzer wahrscheinlich mit einem Paradigma fortfahren, mit dem sie am besten vertraut sind, und nicht mit dem, das am revolutionärsten ist.


Tatsächlich hängt heute ein Großteil der Cybersicherheit von diesem zeitnahen Datenaustausch und der automatisierten Orchestrierung ab, und daher werden diese zugrunde liegenden Informationsstandards für moderne (postindustrielle) Gesellschaften und die Steuerung cyberphysischer Systeme von entscheidender Bedeutung. Doch anstatt die Wissensproduktionsmetarichtlinien zu formulieren oder zu harmonisieren, die zur Steuerung der KI-Sicherheit in einem hypervernetzten und transnationalen Bedrohungsumfeld erforderlich sind, scheinen wir in die verhängnisvollen Fallen existenzieller Erlösung und endloser unheimlicher Täler zu tappen. Allerdings ist einer der Hauptgründe für die mangelnde Compliance und ein chaotisches Szenario bei der Entwicklung von Standards bei der Produktion von Sicherheitsdaten das Fehlen eines primären Governance-Agenten.


Die Governance von (Cyber-)Sicherheitsinformationen

Aktuelle automatisierungszentrierte Standards für den Informationsaustausch über Cyberbedrohungen folgen im Allgemeinen einem Multi-Stakeholder-Governance-Modell. Das bedeutet, dass diese grundsätzlich einem Bottom-up-Lebenszyklusansatz folgen, d. h. ein Informationsstandard für Cybersicherheit wird entwickelt und dann zur gegenseitigen Standardisierung mit ITU und ISO „nach oben“ geschoben. Diese Aufwärtsmobilität technischer Standards ist nicht einfach. Der Structured Threat Information Expression (STIX), der derzeit möglicherweise der De-facto-Industriestandard für die Übertragung maschinenlesbarer Cyber Threat Intelligence (CTI) ist, wartet noch auf die Genehmigung durch die ITU. Nicht, dass es wirklich notwendig wäre, denn die Art und Weise, wie die globale Governance im Technologiebereich strukturiert ist, wird von der Industrie und nicht von Nationen geleitet. Die G7 ging so weit, dies zu formalisieren , und einige Mitglieder blockierten sogar jegliche diplomatische Bemühungen in Richtung anderer Normen.


Dies funktioniert gut für diejenigen Nationalstaaten, die im Rahmen ihrer öffentlich-privaten Technologiepartnerschaften über die erforderlichen strukturellen und produktiven Kapazitäten verfügen. Folglich wird die globale Governance von Cyber-Technologiestandards zu einem Spiegelbild der globalen Ordnung. Abgesehen von der Nennung der Cyber-Bedrohungsakteure war dies bisher von Natur aus noch relativ objektiv. Mit der Integration von Online-Desinformation in offensive Cyberoperationen und nationale Cybersicherheitsrichtlinien ist dies jedoch nicht mehr der Fall – nicht nur die herkömmlichen Informationsstandards können in semantische Konflikte geraten, es tauchen auch neuere wertorientierte Standards für die Informationsumgebung auf . Da die Erstellung und Weitergabe automatisierungsgesteuerter sozialer/politischer Bedrohungsindikatoren von politischen Präferenzen geprägt sein und diese beeinflussen kann, verschieben sich mit zunehmender Bedrohung durch KI-generierte Informationen und soziale Botnetze auch die Standards für Cybersicherheitsbedrohungsinformationen von einem ausreichend objektiven zu einem subjektiveren Standard Haltung. Und Staaten können wenig tun, um dieses derzeitige System neu zu konfigurieren, da die Politik der Cybersicherheitsstandards eng mit ihrer marktgesteuerten Multistakeholder-Entwicklung verknüpft ist.


Die Zuschreibung von Cyber-Bedrohungen ist ein gutes Beispiel dafür. MITRE begann als DARPA-Auftragnehmer und dient heute als branchenweite De-facto-Wissensdatenbank für Bedrohungen und Schwachstellen in Computernetzwerken. Von den in MITRE ATT&CK aufgeführten Advanced Persistent Threat-Gruppen stammen fast ein Drittel der Cyberbedrohungen aus China, ein weiteres Drittel kommt aus Russland/Korea/Naher Osten/Indien/Südamerika usw. und das restliche Drittel ( die die ausgefeiltesten TTPs, den größten Anteil an Zero-Day-Exploits und ein geopolitisch ausgerichtetes Targeting enthalten) bleiben unberücksichtigt. Wir werden hier nicht spekulieren, aber eine abduktive Argumentation über den nicht zugeordneten Bedrohungscluster könnte den Lesern einige Vorstellungen über die Präferenzen und die Politik der globalen CTI-Produktion vermitteln.


Fakt ist, dass im Cyberspace nach Macht strebende Staaten die Rolle spielen

Governance-Akteure und raffinierte Straftäter zugleich, daher hat sich dieser marktorientierte Multistakeholderismus für ihre operative Logik bewährt – die Verkündung einer globalen Politik der Interoperabilität . Aber es ist schlecht für die Produktion von Wissen über Cyber-Bedrohungen und die Sicherheitsautomatisierung selbst, die über das Internet manchmal ziemlich voreingenommen und politisch motiviert sein kann. Die Gesellschaft ist diesen Weg schon lange genug gegangen, um ihn nicht einmal als Problem zu betrachten, wenn sie sich in eine Welt bewegt, die von zunehmend autonomen Systemen umgeben ist.

Ein Weg nach vorne

Da die sozialen KI-Risiken immer größer werden, müssen Staaten, die heute eine vertretbare Cybersicherheitsautomatisierung einführen wollen, möglicherweise mit einem hohen Signal-Rausch-Verhältnis bei Cybersicherheitsbedrohungsinformationen, mehreren CTI-Anbietern und Metarichtlinien sowie ständigem Druck aus der Industrie und der internationalen Gemeinschaft zurechtkommen Organisationen über „KI-Ethik“ und „Cyber-Normen“ (wir werden uns hier nicht auf eine Diskussion über „wessen Ethik?“ einlassen). Dieses Chaos ist, wie wir festgestellt haben, ein Ergebnis der Konzeption von Bottom-up-Ansätzen. Top-down-Ansätzen kann jedoch die Flexibilität und Agilität von Bottom-up-Ansätzen fehlen. Aus diesem Grund ist es notwendig, das Beste des Multistakeholderismus mit dem Besten des Multilateralismus zu verbinden.


Das würde bedeuten, die derzeitige Bottom-up-Einrichtung von Informationsstandards im Rahmen einer multilateralen Vision und eines multilateralen Rahmens zu rationalisieren. Während wir die Produktion parteiischer Bedrohungsdaten vermeiden möchten, möchten wir auch den unterschiedlichen Pool an Branchenexpertise nutzen, der Koordinierung, Lösung und Steuerung erfordert. Während einige UN-Organe, wie die ITU und UNDIR, eine wichtige Rolle in globalen Cybersicherheits-Metarichtlinien spielen, verfügen sie nicht über die Art von Top-Down-Regulierungswirkung, die erforderlich ist, um böswillige soziale KI über das Internet zu steuern oder metapolitische Kontrollen über die gemeinsame Nutzung von Bedrohungen zu implementieren verteilte autonome Plattformen. Daher muss diese Integration von Multistakeholderismus und Multilateralismus beim UN-Sicherheitsrat selbst oder einer anderen gleichwertigen internationalen Sicherheitsorganisation beginnen.


Nicht, dass dies unvorhergesehen gewesen wäre. Als 1998 die erste UN-Resolution zur Bewertung der Informationstechnologien, insbesondere des Internets, verabschiedet wurde, hatten einige Länder ausdrücklich darauf hingewiesen , dass diese Technologien letztendlich im Widerspruch zur internationalen Sicherheit und Stabilität stehen würden, und damit auf die erforderlichen Reformen auf den höchsten Ebenen der internationalen Sicherheit hingewiesen. Tatsächlich hat sich der Sicherheitsrat der Vereinten Nationen als Institution nicht gut mit den digitalen Technologien und der Sicherheitsrealität nach dem Internet weiterentwickelt. Die uneingeschränkte Verbreitung staatsnaher APT-Operationen ist nur ein Beispiel dafür, dass es ihr nicht gelingt, destabilisierende staatliche Aktivitäten zu regulieren. Darüber hinaus scheint der Rat zwar immer noch in einer Vision strategischer Sicherheit aus dem Jahr 1945 festzustecken, es gibt jedoch genügend Gründe und Beweise, die Idee der „staatlichen Gewalt“ angesichts strategisch eingesetzter offensiver Cyber- und KI-Fähigkeiten zu verlagern.


Auch wenn es nicht einfach sein wird, die Widerstandsfähigkeit der globalen Ordnung und ihrer fest verwurzelten Bürokratien zu überwinden, könnte der Rat (oder sein Ersatz) bei einer Reform seiner Satzung und Zusammensetzung als wertvolle Institution dienen, um die Lücke zu füllen, die durch das Fehlen eines solchen entsteht Hauptakteur bei der Steuerung der Sicherheits- und Governance-Standards, die Sicherheitsautomatisierung und KI-Anwendungen im Cyberspace vorantreiben.

Es ist der Prozess

An dieser Stelle ist es notwendig, auf gewisse Missverständnisse hinzuweisen. Es scheint, dass die Regulierungsbehörden einige Vorstellungen zur Regulierung von „KI-Produkten“ haben, zumindest legt das KI-Gesetz der EU das Gleiche nahe. Hier müssen wir uns einen Moment der Stille und Stille gönnen, um darüber nachzudenken, was „KI“ oder „autonomes Verhalten“ ist – und den meisten von uns wird bald klar werden, dass die derzeitigen Methoden zur Zertifizierung von Produkten möglicherweise nicht ausreichen, um adaptive Systeme anzugehen, die darin verwurzelt sind Kontinuierliches Lernen und Datenaustausch mit der realen Welt. Was wir sagen wollen, ist, dass die Regulierungsbehörden möglicherweise ernsthaft die Vor- und Nachteile eines produktzentrierten gegenüber einem prozesszentrierten Ansatz zur Regulierung von KI abwägen müssen.


Letztendlich ist KI ein Ergebnis. Es sind die zugrunde liegenden Prozesse und Richtlinien, von Data-Engineering-Praktiken und Modellarchitekturen bis hin zu Maschine-zu-Maschine-Informationsaustausch und Optimierungsmechanismen, bei denen der Fokus von Governance und Standards liegen muss und nicht auf dem Ergebnis selbst. Da sich Software außerdem von einem objektorientierten zu einem agentenorientierten Entwicklungsparadigma verlagert, müssen Regulierungsbehörden anfangen, über Richtlinien im Sinne von Code und Code im Sinne von Richtlinien nachzudenken – alles andere wird immer eine riesige Lücke zwischen Absicht und Umsetzung hinterlassen.


Wenn man sich auf das oben erwähnte Chaos der heutigen Multi-Stakeholder-Cybersicherheits-Governance verlassen kann, benötigen wir für KI-Sicherheit und -Governance eine evidenzbasierte Orchestrierung und Laufzeitverifizierung von Bedrohungsdaten (berücksichtigen Sie Daten, die zum endgültigen CTI geführt haben, und beschäftigen Sie sich mit neuen Arten technischer Beweise). der KI-gesteuerten Automatisierung in Cyber-Verteidigungs- und Sicherheitssystemen, klare überparteiliche Kanäle und Standards für die Governance von Cyber-Bedrohungsinformationen und ein multilateraler Konsens darüber. Wenn wir uns allein auf das endgültige KI-Produkt konzentrieren, kann vieles unberücksichtigt bleiben und möglicherweise parteiisch sein – wie wir am Ökosystem der Informationsmetarichtlinien sehen, die Sicherheitsautomatisierungssysteme weltweit vorantreiben – daher müssen wir uns darauf konzentrieren, die zugrunde liegenden Prozesse und Richtlinien, die diese Systeme antreiben, besser zu steuern und nicht die Ergebnisse dieser Prozesse und Richtlinien.