paint-brush
Können die Regierung, die Technologieplattformen oder sonst jemand die Verbreitung von Deepfakes kontrollieren?von@scobleizer
Neue Geschichte

Können die Regierung, die Technologieplattformen oder sonst jemand die Verbreitung von Deepfakes kontrollieren?

von Robert Scoble6m2024/10/22
Read on Terminal Reader

Zu lang; Lesen

In diesem Umfeld werden Aufklärung und Bewusstsein der Wähler ebenso wichtig wie die Gesetze selbst. Die Verbreitung von Informationen darüber, wie man echte von synthetischen Medien unterscheiden kann, sowie ein kritischer Blick für das, was wir konsumieren und teilen, sind von größter Bedeutung. Es ist eine kollektive Anstrengung – eine Mischung aus rechtlichen, unternehmerischen und individuellen Maßnahmen – die unsere Widerstandsfähigkeit gegen die steigende Flut von KI-generierten Fehlinformationen prägt. Mit der Annäherung der Wahlen 2024 ist es offensichtlich, dass es kein Allheilmittel für das Deepfake-Phänomen gibt. Doch die aufkeimenden gesetzgeberischen Bemühungen, kombiniert mit proaktiven Maßnahmen von Technologieunternehmen und der wachsamen Beteiligung der Öffentlichkeit, schaffen die Voraussetzungen für eine robuste Verteidigung. Dies sind die Grundlagen, auf denen wir hoffen können, die Heiligkeit unserer Wahlen zu bewahren und eine gut informierte Wählerschaft zu fördern, die in der Lage ist, durch die trüben Gewässer der digitalen Propaganda zu navigieren. Während sich die gesetzgeberische Landschaft noch herausbildet und sich das digitale Schlachtfeld ständig verändert, sind unsere kollektive Wachsamkeit und Anpassungsfähigkeit der Schlüssel. Die Maßnahmen, die heute von Gesetzgebern, Technikern und jedem Wähler ergriffen werden, werden die Wirksamkeit unserer Verteidigung gegen Deepfakes bestimmen. In diesem Wahljahr und darüber hinaus bleibt der Schutz der Wahrheit eine gemeinsame Verantwortung – eine, die wir kontinuierlich aufrechterhalten müssen.
featured image - Können die Regierung, die Technologieplattformen oder sonst jemand die Verbreitung von Deepfakes kontrollieren?
Robert Scoble HackerNoon profile picture

Im dynamischen politischen Umfeld der Vereinigten Staaten werden die rasch näher rückenden Präsidentschaftswahlen 2024 zur Arena für einen neuen Kampf – gegen den heimtückischen Aufstieg von KI-generierten Deepfakes. Diese hochentwickelten synthetischen Konstrukte, die die Realität verzerren können, haben im ganzen Land einen Gesetzgebungsmarathon ausgelöst, während die Staatsoberhäupter entschlossene Maßnahmen zur Wahrung der Integrität der Wählerinformationen vorantreiben. Es gibt kein Bundesgesetz, das sich mit Deepfakes befasst, sodass es den einzelnen Staaten überlassen bleibt, Gesetze zu erlassen. Der oberste Beamte der Federal Election Commission (FEC) hat angedeutet, dass er erwartet, dass das Problem noch in diesem Jahr gelöst wird. Diese Prognose deutet darauf hin, dass diese Art von Fehlinformationen möglicherweise über einen beträchtlichen Zeitraum des Wahlzeitraums 2024 ungehindert weiterverbreitet wird.


Um die parteipolitische Kluft mit einer gemeinsamen Vision für Wahlintegrität zu überbrücken, haben sich kürzlich die Senatorinnen Amy Klobuchar aus Minnesota und Lisa Murkowski aus Alaska zusammengeschlossen. Ihr gemeinsames Gesetzgebungsvorhaben präsentiert einen zukunftsweisenden Gesetzentwurf, der sich direkt an die digitale Grenze der politischen Werbung richtet. Dieser Gesetzesentwurf würde durch die Durchsetzung von Haftungsausschlüssen dringend benötigte Klarheit in die trüben Gewässer der KI-generierten politischen Anzeigen bringen. Aber das ist noch nicht alles: Der Gesetzentwurf ermächtigt auch die Federal Election Commission (FEC), als digitale Wachhundin zu fungieren und sicherzustellen, dass Verstöße nicht unbemerkt bleiben oder nicht geahndet werden. Dies ist ein mutiger Schritt zur Gewährleistung der Transparenz, während wir in die nächste Welle von Wahlkämpfen segeln.


Was passiert in diesem Wahljahr, wenn es wie erwartet zu einer Flut politisch motivierter Deepfakes kommt? Wie können die Menschen vor Beeinflussung geschützt werden? Eine einfache Antwort gibt es nicht.

Deepfakes entschlüsselt: Die synthetische Bedrohung verstehen

Deepfakes – ein Begriff, der sich aus den Wörtern „Deep Learning“ und „Fake“ zusammensetzt – beziehen sich auf künstlich erzeugte Audio-, Bild- oder Videodateien, die das Aussehen einer Person mit erschreckender Genauigkeit nachbilden sollen. Der Vorfall im Februar in New Hampshire ist ein erschütterndes Beispiel: Eine KI-generierte Stimme, die Präsident Joe Biden auf unheimliche Weise imitierte, hat Tausende mit falschen Wahlinformationen in die Irre geführt. Dieses Ereignis unterstreicht die dringende Notwendigkeit einer fundierten und proaktiven Gesetzgebung.


„In einer überraschenden Wendung der Ereignisse war an diesem Dienstag eine Stimme im Radio zu hören, die erklärte: ‚Ihre heutige Stimme ist ein Schritt, um Donald Trump wieder ins Amt zu bringen‘“, berichtete ein Mitarbeiter aus dem Team von Rep. Dean Phillips, D-Minn., in einem Interview mit NBC News. Diese Person, die für einen Außenseiter im Rennen gegen Biden arbeitet, gab zu, dass sie die Anzeige aus eigenem Antrieb und ohne das Wissen oder die Zustimmung der Kampagne inszeniert hatte.


Im Wahlkampf der Republikaner tauchte ein eindrucksvoller Audio-Beitrag aus dem Trump-Lager auf. Der Clip war kunstvoll bearbeitet, um den Eindruck zu erwecken, Floridas Gouverneur Ron DeSantis führe einen Dialog mit niemand anderem als Adolf Hitler.


Als Vergeltungsmaßnahme verteilte das DeSantis-Team daraufhin ein manipuliertes Foto, das Trump in einer herzlichen Umarmung mit Anthony Fauci zeigt, was in den sozialen Medien für große Aufregung sorgte.

DeSantis‘ Trump und Fauci täuschen Umarmung vor


Unten ist ein X-Post, der einen Barack Obama-Deepfake zeigt. Der Post zeigt auch, wie lebensecht die anderen dort geposteten Deepfakes sind.

Der Gesetzesschub: Über 100 Gesetzesentwürfe zum Schutz der Wähler

Als Hüter der Wahlintegrität beobachtet das Voting Rights Lab aufmerksam eine immer größer werdende Welle von Gesetzesinitiativen. In einer Landschaft, in der in 40 Bundesstaaten über 100 Gesetzesentwürfe auf den Weg gebracht wurden, scheint das Engagement zur Bekämpfung von KI-generierter Wahldesinformation unerschütterlich. Mit jedem eingebrachten oder verabschiedeten Gesetzentwurf besteht bei den Gesetzgebern ein unverkennbares Gefühl der Dringlichkeit, die Grundlagen der Demokratie zu stärken. Es ist ein Gesetzesfeldzug, der schnell an Zugkraft gewinnt und die kollektive Entschlossenheit zeigt, unsere demokratischen Prozesse vor den trügerischen Schatten digitaler Manipulationen zu schützen.

Einzelheiten zur staatlichen KI-Gesetzgebung, Stand Ende 2023

Neue gesetzliche Rahmenbedingungen

Nach dem Robocall-Vorfall kam es zu einer Flut von Gesetzgebungsaktivitäten. Bundesstaaten wie Arizona, Florida und Wisconsin stehen nun an vorderster Front und weisen jeweils einen anderen Regulierungstrend auf, der die unterschiedlichen Ansätze zur Bekämpfung dieser technologischen Tricks veranschaulicht.


Wisconsin hat kürzlich ein Gesetz verabschiedet, das politische Partner verpflichtet, KI-generierte Inhalte offenzulegen, während Florida auf die Unterschrift des Gouverneurs unter einem ähnlichen Gesetz wartet. Arizona hingegen balanciert zwischen Regulierung und verfassungsmäßigen Rechten und bereitet Gesetzesentwürfe vor, die das Fehlen von Kennzeichnungen auf KI-politischen Medien unter bestimmten Bedingungen als Straftat einstufen könnten. Ein weiterer Gesetzentwurf, der in Arizona zur Diskussion steht, eröffnet Personen, denen Unrecht zugefügt wurde, die Möglichkeit, Zivilklagen gegen die Urheber der Inhalte einzuleiten, und bietet ihnen die Möglichkeit, eine finanzielle Entschädigung zu erhalten.


Seit 2019 haben sowohl Kalifornien als auch Texas entsprechende Gesetze erlassen.


In Indiana ist ein Gesetzentwurf, der von beiden Parteien unterstützt wird, auf dem Weg zum Gouverneursbüro. Sollte er verabschiedet werden, würde er vorschreiben, dass in Anzeigen, die Deepfake-Technologie verwenden, klar und deutlich darauf hingewiesen werden muss: „Teile dieser Medien wurden digital verändert oder künstlich hergestellt.“ Diese Richtlinie würde sich auf Bilder, Videos und Audioinhalte erstrecken. Kandidaten auf Landes- und Bundesebene, die von solchen Inhalten betroffen sind, hätten die rechtliche Möglichkeit, zivilrechtlich Schadenersatz zu fordern.


Inspiriert durch den Vorfall mit den betrügerischen Robocalls, bei denen Präsident Biden imitiert wurde, kam es in Kansas zu einer parteiübergreifenden Initiative. Angeführt vom republikanischen Abgeordneten Pat Proctor und einem demokratischen Politiker brachten sie einen Gesetzesvorschlag auf den Weg, der das Deepfake-Dilemma direkt angeht. Dieser Gesetzesentwurf forderte nicht nur verpflichtende Offenlegungen von Deepfake-Werbung, sondern schlug auch strenge Strafen für diejenigen vor, die sich als Wahlbeamte wie Außenminister ausgeben, mit dem böswilligen Ziel, Wähler von der Stimmabgabe abzuhalten. Derzeit ist der Gesetzesentwurf tot, aber laut Proctor kann er wiederbelebt werden.

Der Bedrohung durch Desinformation auch über gesetzliche Regelungen hinaus begegnen

Gesetzgebung ist nur eine Facette der vielschichtigen Strategie, die zur Bekämpfung von KI-generierten Deepfakes erforderlich ist. Organisationen wie NewDeal führen Initiativen an, die Wahlleiter mit Werkzeugen ausstatten, mit denen sie Desinformationskampagnen wirksam entgegentreten können. Die Vorbereitung auf Zwischenfälle und Aufklärungskampagnen, wie sie von den Außenministerien in New Mexico und Michigan ins Leben gerufen wurden, sind wichtige Komponenten bei der Aufklärung der Wähler und der Stärkung der demokratischen Infrastruktur.

Transparenzmaßnahmen bei den großen Technologieunternehmen

Große Technologieunternehmen setzen proaktiv neue Standards für die Authentizität von Online-Inhalten und legen dabei einen starken Fokus auf von KI beeinflusste Werbung. Meta, die Dachgesellschaft für soziale Plattformen wie Facebook, Instagram und Threads, entfernt gewissenhaft alle irreführenden oder kontextlosen Anzeigen, insbesondere solche, die den Wahlprozess potenziell untergraben oder Wahlergebnisse vorwegnehmen könnten. Alle von KI generierten Anzeigen unterliegen dieser strengen Prüfung.


Im Einklang mit diesen Bemühungen hat Google erklärt, dass alle KI-verbesserten Bilder, Videos oder Audiodateien, die in Wahlwerbung verwendet werden, transparent sein müssen. Ab November müssen solche Inhalte explizit offengelegt werden. YouTube, das unter der Fittiche von Google steht, verpflichtet sich zur Transparenz, indem es dafür sorgt, dass seine Nutzer erkennen können, wenn Inhalte digital manipuliert wurden. Diese strategischen Schritte von Meta und Google signalisieren einen entscheidenden Wandel hin zu Klarheit und Ehrlichkeit bei den digitalen Inhalten, die wir konsumieren, insbesondere im politischen Bereich.


Während wir uns durch die Komplexität eines Wahljahres bewegen, das zunehmend von KI-Technologie beeinflusst wird, bleibt die Frage: Sind die Gesetze der Bundesstaaten robust genug, um die Verbreitung von Deepfakes zu kontrollieren? Da die FEC darauf hinweist, dass nationale Resolutionen möglicherweise erst später im Jahr vorliegen, liegt die Verantwortung bei den Parlamenten der Bundesstaaten, den Technologieunternehmen und der Öffentlichkeit, ein Bollwerk gegen diese digitalen Täuschungen zu errichten.

Die in den Bundesstaaten vorgeschlagenen und verabschiedeten Gesetzesinitiativen sind ein Flickenteppich aus Abwehrmaßnahmen, von denen einige einen Einblick in die rigorosen Maßnahmen bieten, die für faires Spiel in unseren politischen Arenen erforderlich sind. Auch das Bekenntnis der Technologieunternehmen zu Klarheit und Integrität fügt eine Ebene dringend benötigter Kontrolle hinzu. Doch so ausgefeilt diese Maßnahmen auch sein mögen, sie sind nicht undurchdringlich. Es wird immer neue Herausforderungen und Schlupflöcher geben, die geschlossen werden müssen, insbesondere da sich die Technologie in halsbrecherischem Tempo weiterentwickelt.


In diesem Umfeld werden Aufklärung und Sensibilisierung der Wähler ebenso wichtig wie die Gesetze selbst. Die Verbreitung von Informationen darüber, wie man echte von künstlichen Medien unterscheiden kann, sowie ein kritischer Blick für das, was wir konsumieren und teilen, sind von größter Bedeutung. Es ist eine gemeinsame Anstrengung – eine Mischung aus rechtlichen, unternehmerischen und individuellen Maßnahmen – die unsere Widerstandsfähigkeit gegen die zunehmende Flut von KI-generierten Fehlinformationen prägt.

Mit Blick auf die Wahlen 2024 ist es offensichtlich, dass es kein Allheilmittel gegen das Deepfake-Phänomen gibt. Doch die wachsenden gesetzgeberischen Bemühungen, kombiniert mit proaktiven Maßnahmen von Technologieunternehmen und der aufmerksamen Beteiligung der Öffentlichkeit, schaffen die Voraussetzungen für eine robuste Verteidigung. Dies sind die Grundlagen, auf denen wir hoffen können, die Heiligkeit unserer Wahlen zu bewahren und eine gut informierte Wählerschaft zu fördern, die in der Lage ist, durch die trüben Gewässer der digitalen Propaganda zu navigieren.


Zusammenfassend lässt sich sagen, dass unsere kollektive Wachsamkeit und Anpassungsfähigkeit entscheidend sind, während sich die Gesetzeslandschaft noch immer herausbildet und sich das digitale Schlachtfeld ständig verändert. Die Maßnahmen, die heute von Gesetzgebern, Technikern und jedem Wähler ergriffen werden, werden die Wirksamkeit unserer Verteidigung gegen Deepfakes bestimmen. In diesem Wahljahr und darüber hinaus bleibt der Schutz der Wahrheit eine gemeinsame Verantwortung – eine, die wir kontinuierlich aufrechterhalten müssen.