Während wir weiterhin mit den unbegrenzten Möglichkeiten der künstlichen Intelligenz (KI) und der digitalen Zwillingstechnologie experimentieren, beschränken wir uns und die Technologie, die uns hilft, die Lücke zu schließen, nicht mehr auf das Reich der Science-Fiction.
Fortschritte bei KI-Anwendungen haben dazu geführt, dass die Digital-Twin-Technologie nun die Prozesse jedes Systems oder jeder Person exakt nachbilden kann. So entsteht eine manipulierte digitale Umgebung, die umfangreicher, ausgefeilter und mit dem Original nahezu identisch ist.
Obwohl die Digital-Twin-Technologie zusammen mit künstlicher Intelligenz dazu geführt hat, dass heute mehr Menschen und Unternehmen alltägliche Aufgaben automatisieren können – und so die Zeit, die Mitarbeiter und Einzelpersonen mit unnötigen Aktivitäten verbringen, minimiert wird –, rufen Digital-Twin-Anwendungen in Theorie und Praxis zunehmend Datenschutzbedenken, die Möglichkeit eines Identitätsdiebstahls und die Verwendung von Deepfakes zur Verbreitung von Fehlinformationen hervor.
Gefälschte, von KI generierte Bilder und Videos, die nahezu exakte Kopien echter Personen sind, sind nicht das Einzige, was im Internet kursiert und für Unruhe sorgt. Geschichten von Betrügern, die digitale Audiodaten erhalten und aus nur drei Sekunden Audio die Stimmen von Menschen klonen, bereiten den Behörden inzwischen größere Sorgen.
Einige Brancheneinblicke deuten darauf hin, dass etwa 77 Prozent der amerikanischen Internetnutzer angaben, durch KI-generierte Lookalikes und Online-Inhalte getäuscht worden zu sein.
Doch nun stehen Entwickler gemeinsam mit Anwendern vor dem Ziel, zu verstehen, wie Gesetzgeber beginnen können, digitale Rahmenbedingungen in Frage zu stellen und die Prozesse zum Schutz der digitalen Identität und Privatsphäre von Einzelpersonen im Internet der Dinge weiter umzugestalten.
Wir haben in den letzten Jahren erlebt, wie die digitale Technologie eine ganze Reihe bemerkenswerter Erfahrungen geschaffen hat, und neben der künstlichen Intelligenz stehen wir jetzt an der Spitze der nächsten Computer- und maschinellen Lernfähigkeitsgeneration, die uns in die nächste Grenzregion führen wird.
Angesichts der endlosen Möglichkeiten helfen uns neue Methoden der Digitalisierung dabei, eine Art Rahmensystem zu entwickeln, das unseren Platz im digitalen Ökosystem einnehmen kann, während wir weiterhin die Freiheit haben, hier auf der Erde ein unbeschwerteres Leben zu führen.
Durch die Entwicklung der Digital-Twin-Technologie können Benutzer und die Anwendungen, die wir in unserem täglichen Leben nutzen, stärker automatisiert werden und mithilfe fortschrittlicher Technologie unsere Routinen studieren und erlernen und so ein persönlicheres Erlebnis ermöglichen.
Bei der Digital-Twin-Technologie handelt es sich laut Forschern von IBM um den Prozess, bei dem ein Objekt oder eine Person mit einer Vielzahl von elektrischen Sensoren ausgestattet wird, die lebenswichtige Funktionsbereiche überwachen.
Durch die Durchführung mehrerer Tests und die ständige Überwachung verschiedener Eingabe- und Ausgabemechanismen kann computergestützte Software Daten über die verschiedenen Aspekte der Leistung eines Objekts oder einer Person erstellen. Das ultimative Ziel besteht darin, die verfügbaren Daten zu verwenden und sie auf eine digitale Kopie anzuwenden, um verschiedene Szenarien nachzubilden oder sie verschiedenen Arten von Tests zu unterziehen.
Mithilfe dieser Daten können Technologieunternehmen untersuchen, wie sich Objekte unter bestimmten Bedingungen verhalten und wie sich die Leistung eines Objekts durch Systemänderungen verbessern lässt.
Stellen Sie sich vor, Sie könnten alle Ihre alltäglichen oder Routineaufgaben an eine digitale Kopie Ihrer selbst übergeben. So hätten Sie mehr Zeit und könnten unnötige Aktivitäten aus Ihrem Tagesablauf streichen.
Aus der Geschichte haben wir gelernt, dass es möglich ist, Technologien so einzusetzen, dass wir uns bis zu einem gewissen Grad in der virtuellen Welt replizieren und in unserem realen Leben effizienter werden können, ohne dafür mehr Zeit und Fähigkeiten opfern zu müssen.
Technologieunternehmen, die auf diesem Technologieniveau Pionierarbeit leisten, können mithilfe digitaler Zwillingsmodelle Tests und Studien in verschiedenen Simulationen durchführen und Verbesserungen vornehmen, die zur Verbesserung des ursprünglichen Prototyps beitragen.
Diese Technologie ist unglaublich nützlich, um besser zu verstehen, wie bestimmte Objekte unter verschiedenen Bedingungen und bei unterschiedlichen Fehlern funktionieren. Und wie können durch die Verwendung der relevanten Daten die notwendigen Verbesserungen das ursprüngliche Objekt verbessern und gleichzeitig sicherstellen, dass zukünftige Versionen effizienter sind und strengeren Tests oder Szenarien standhalten?
Theoretisch sollen die digitale Zwillingstechnologie und KI-gestützte Anwendungen unser Leben effizienter machen und uns helfen, produktiver zu sein. Diese Technologie soll nicht nur den Menschen, sondern auch auf wissenschaftlicher Ebene verbessern.
Mithilfe der KI-gestützten Technologie der nächsten Generation können wir unsere aktuellen Systeme verbessern, bessere und präzisere Entscheidungen treffen und unsere Lebens- und Arbeitsweise völlig verändern.
Doch was passiert, wenn diese Technologie nicht für den vorgesehenen Zweck eingesetzt wird? Oder besser noch: Wie können wir erkennen, was echt oder falsch ist, wenn Betrüger die digitalen Fäden ziehen, die unsere Realität derzeit rasant prägen?
Mit der Weiterentwicklung der KI-Technologie werden auch die Ergebnisse immer ausgefeilter. Das Internet ist mittlerweile überschwemmt mit KI-generierten Inhalten, von Bildern, Videos und Musik bis hin zu Artikeln und Audioaufnahmen bekannter Prominenter und Social-Media-Influencer.
Im Januar dieses Jahres hatten gefälschte Bilder von Taylor Swift das Internet scheinbar in den digitalen Würgegriff genommen, nachdem Bilder aufgetaucht waren, auf denen Swift in expliziten und teilweise pornografischen Inhalten zu sehen war. Die Bilder machten schnell die Runde im Internet und wurden mehr als 47 Millionen Mal angesehen, bevor der Account gesperrt wurde, so ein Bericht der New York Times .
Dies ist nicht das erste Mal, dass KI-gestützte Anwendungen zur Erstellung expliziter Inhalte verwendet werden. Im Oktober 2020 berichteten Forscher, sie hätten mehr als 100.000 digital erstellte Nacktbilder von Frauen entdeckt, die ohne deren Zustimmung erstellt worden waren. Den Forschern war auch nicht bewusst, dass ihre körperlichen Merkmale verwendet wurden, so das US-Heimatschutzministerium .
Experten haben außerdem herausgefunden, dass 90 bis 95 Prozent der seit 2018 im Internet geteilten und veröffentlichten Deepfake-Videos konstruiert waren und auf nicht einvernehmlicher Pornografie basierten.
Im Juli 2023 hätte eine verängstigte und verwirrte Mutter Betrügern beinahe mehr als 50.000 Dollar Lösegeld gezahlt, nachdem sie kontaktiert und in dem Glauben gelassen worden war, ihre Tochter werde gefangen gehalten.
Glücklicherweise gelang es der Mutter, die Zusammenhänge schnell zu erkennen und ihr wurde klar, dass es sich um eine Falschmeldung handelte und dass sie von einer Gruppe Betrüger kontaktiert worden war, die mithilfe von KI-Anwendungen die Stimme ihrer Tochter nachahmten und mit deren Hilfe sie ahnungslosen Opfern Tausende von Dollar abknöpfen wollten.
Einer aktuellen Umfrage von McAfee zufolge ist mittlerweile jeder vierte Erwachsene von Betrugsversuchen mit Spracherkennung betroffen. Sie fragen sich vielleicht, wie Betrüger nicht nur Bilder, sondern auch die Stimme einer Person imitieren können.
Mithilfe der Generative Adversarial Network (GAN)-Technologie kann nun jeder Mensch auf der Welt Inhalte basierend auf einer Reihe von Eingabeaufforderungen und relevanten Daten erstellen. Die GAN-Technologie wurde bereits 2014 als eine Klasse von maschinellen Lerntools entwickelt, die die Ähnlichkeit von Bildern erstellen und bewerten.
GAN-Frameworks sind einfach ein weiterer Zweig der KI-gestützten Technologie, und in Verbindung mit den Fähigkeiten digitaler Zwillingsanwendungen hat diese Technologie ein nahezu unbegrenztes Potenzial. KI-generierte Inhalte werden in sozialen Medien und im Internet von Tag zu Tag häufiger verwendet. Experten gehen davon aus, dass bis 2026 bis zu 90 Prozent aller Inhalte KI-generiert sein werden.
Obwohl es amüsant ist, die Ergebnisse dieser Technologie zu beobachten, beginnt nun eine dunklere Seite dieser Technologie unter der Oberfläche zu brodeln, da Benutzer anfangen, zu hinterfragen, wie ihre Daten zum Trainieren neuer Sprachen und Lernmodelle verwendet werden.
Angesichts der Menge an neuen Inhalten, die mithilfe von KI-Technologie erstellt werden, ist die Unterscheidung zwischen echten und gefälschten Inhalten zu einer anspruchsvollen Aufgabe geworden, die nicht nur intelligentere künstliche Maschinen erfordert, sondern auch die Aufklärung der Benutzer über die potenziellen Gefahren, die diese Technologie in naher Zukunft birgt.
Offenbar gehen Experten davon aus, dass wir uns jetzt in einem Zeitalter des „Identitätsentzugs“ befinden. In diesem Zeitalter stehlen und verwenden böswillige Akteure nicht nur unsere Namen und andere persönliche Informationen, sondern beanspruchen auch unsere Identitäten für sich und nutzen Technologien, um unsere körperlichen Merkmale und unsere Stimme nachzubilden und eine virtuelle Version unserer selbst zu erstellen, die nicht nur eine exakte Kopie ist, sondern vom echten Menschen nicht zu unterscheiden ist.
Dies alles geschieht direkt vor unseren Augen, aber ohne unsere Zustimmung oder Genehmigung. Und da Milliarden von Datenpunkten online verfügbar sind, verfügen böswillige Akteure über eine Fundgrube an Informationen, die sie nutzen können, um unsere Realität zu verdrehen und zu verzerren, ohne dass wir jemals merken, was passiert.
In einem Zeitalter der Fehlinformation, in dem die sozialen Medien mit falschen und unwahren Informationen überschwemmt werden, können Betrüger nun von der Nutzung KI-gestützter Technologie profitieren, um sich als Personen des öffentlichen Lebens auszugeben, ohne dass wir jemals etwas anderes vermuten.
Da immer mehr unserer Informationen aus dem Internet zusammengetragen und dazu verwendet werden, Anwendungen für maschinelles Lernen komplexere Muster beizubringen, eröffnen sich diesen Anwendungen zahllose Möglichkeiten, effektiver zu analysieren und zu lernen, aber – noch wichtiger – die Informationen auf eine Art und Weise gekonnt nachzuahmen, die unser Verständnis der Realität verdreht.
Deepfakes und KI-generierte Inhalte sorgen nicht nur unter uns für Verwirrung, sondern hinterlassen auch langfristige soziologische und psychologische Auswirkungen auf Menschen, die negativ betroffen sind oder zuvor negative Erfahrungen mit KI-generierten Doppelgängern gemacht haben.
In einer Studie stellten Forscher fest, dass die Doppelgänger-Phobie das Ergebnis missbräuchlicher KI-Klone ist, die die Identität von Personen ausnutzen und verdrängen und eine negative emotionale Reaktion hervorrufen.
Darüber hinaus betonen die Forscher derselben Studie, dass durch KI erzeugte digitale Zwillinge einen Diskurs über die Art und Weise anstoßen werden, wie Menschen mit Technologie interagieren, und dies wiederum Auswirkungen auf die Identität und die zwischenmenschlichen Beziehungen der Menschen haben wird.
Ein digitaler Klon scheint die ultimative Realität zu sein. Allerdings bergen diese künstlichen Nachbildungen das Potenzial, die einheitliche Selbstwahrnehmung und Individualität des Einzelnen zu gefährden.
Wenn diese Technologie jedoch zur Unterstützung bei der Verabreichung von Medikamenten, zur Überwachung des Patientenbedarfs und zur drahtlosen Übertragung eingesetzt wird, scheint ein digitaler Zwilling das beste Szenario zu sein.
Das Wissen, dass diese Technologie nicht nur schlecht ist, und das Aufdecken der langfristigen Möglichkeiten, die die nächste Generation der Telemedizin ermöglichen können, würden dazu führen, dass Patienten wirksamer behandelt werden und in jedem Fall die richtige Diagnose gestellt wird.
Obwohl die Möglichkeiten nahezu unbegrenzt sind, sollten Partnerschaften zwischen öffentlichen und privaten Einrichtungen den Schutz bzw. die sichere Aufbewahrung von Patientendaten sicherstellen und faire und gleichberechtigte gemeinsame Erfahrungen ermöglichen.
Zwar ist die Technologie bereits vorhanden, doch der rechtliche und juristische Rahmen zum Schutz Einzelner vor der unerlaubten und illegalen Datenerfassung durch künstliche Intelligenz befindet sich noch in der Entwicklung.
Diese interdisziplinäre Zusammenarbeit ist nicht nur im Bereich der Gesundheitsfürsorge wichtig . Vielmehr sollten diese Bemühungen einen umfassenden Fahrplan fördern, der ein besseres Verständnis dafür bietet, wie KI-Technologie entwickelt und angewendet werden kann, wobei rechtliche Auswirkungen berücksichtigt werden und den Benutzern mehr Sicherheit geboten wird.
Da KI-generierte Inhalte im Internet und in den sozialen Medien immer alltäglicher werden, stellen Benutzer und zentrale Behörden zunehmend die Frage, wie wir künstlich generierte Anwendungen verwalten und die Wahrung der Authentizität sicherstellen können.
Der Einsatz von Deepfake-Technologie zum Klonen oder Imitieren von Einzelpersonen, sowohl privaten als auch öffentlichen, verletzt die Privatsphäre des Einzelnen. Darüber hinaus kann die Verwendung von KI-gestützten Anwendungen zum Nachbilden des Namens, des Bildes oder der Ähnlichkeit einer Person ohne deren vorherige Erlaubnis oder Wissen ihr Recht auf Persönlichkeit verletzen und möglicherweise eine Reihe schwerwiegender Verstöße nach sich ziehen.
Unternehmen verfolgen und teilen weiterhin wertvolle kundenbezogene Informationen. Technologieunternehmen, die KI-gestützte Anwendungen verwenden, können mit diesen Daten neue Software trainieren und digitale Modelle erstellen, die sowohl echte Menschen als auch reale Szenarien widerspiegeln. Die zwischen Unternehmen ausgetauschten Daten sind nicht nur äußerst wertvoll, sondern die Regulierung dieser Aktivitäten wird aufgrund des hohen Komplexitätsgrads neuer Anwendungen und der Datenmenge, die von verschiedenen Unternehmen ausgetauscht und gespeichert wird, auch immer schwieriger.
Unternehmen verfolgen ihre Benutzer anhand einer Vielzahl von Datenpunkten, um auf die Daten zuzugreifen, die für die Verwendung von Anwendungen für maschinelles Lernen erforderlich sind. Durch die Überwachung dieser Kanäle können Unternehmen ihre Kunden und deren grundlegende Nutzungsmuster besser verstehen, ein persönlicheres Erlebnis bieten und im Voraus Verbesserungen vornehmen.
Diese Kanäle können jedoch dazu dienen, Benutzer genauer zu überwachen, wodurch die Grenzen der Privatsphäre oft verschwimmen. Diese Aktivitäten tragen zu den zusätzlichen Vorkehrungen bei, die erforderlich sind, um den Schutz von Benutzerdaten und öffentlich verfügbaren Informationen zu gewährleisten.
In den letzten Monaten hat das Weiße Haus zusammen mit der Biden-Administration seinen Ansatz zur Regulierung künstlicher Intelligenz mit der Einführung einer Executive Order angekündigt . Mit der Executive Order versucht die Bundesregierung, allen Bundesbehörden und -mitarbeitern die notwendige Schulung und Ausbildung zu bieten, um besser zu verstehen, wie KI-Tools angemessener eingesetzt werden können.
Diese Maßnahmen befinden sich zwar noch in der Umsetzungsphase, erfordern jedoch einen viel umfassenderen Ansatz. Dazu müsste die Regierung in geeignete Ressourcen investieren, die den Bürgern dabei helfen, sich über KI-generierte Inhalte zu informieren und diese besser zu verstehen. Zudem müsste die digitale Sicherheit aller Menschen oberste Priorität haben.
Viele Regulierungsbehörden sind sich noch nicht ganz darüber im Klaren, wie Nutzer darüber informiert werden können, wann neue Informationen über sie gesammelt werden oder welche Art von Daten verwendet werden. Im Juni 2023 verabschiedete die Europäische Kommission den AI Act , den ersten seiner Art in der Branche, der den Nutzern mehr Transparenz darüber bieten soll, wie viele Informationen über sie gesammelt werden und wie diese Informationen verwendet werden.
Entwicklungen wie diese geben den Gesetzgebern eine klare Vorstellung davon, wie sie ihre Durchsetzung zur Verbesserung der Privatsphäre und Sicherheit der Benutzer einsetzen können. Sie bringen Licht in die dunklen Ecken der Technologiebranche und stellen sicher, dass jedes Unternehmen das gleiche Maß an Transparenz verfolgt, das die Privatsphäre und Sicherheit der Benutzer in den Vordergrund stellt.
Obwohl unklar ist, ob jeder von uns irgendwo in den Weiten des Internets einen digitalen Zwilling besitzt, wird der Schutz unserer digitalen Identität zu einer Herausforderung, die Gesetzgeber und Regulierungsbehörden vor schwierige Fragen stellt und viele davon unbeantwortet lässt.
Der Gedanke, eines Tages einen digitalen Zwilling zu haben, bedeutet, dass wir dabei einen Teil unserer Identität aufgeben müssen. Für viele Menschen wirft dies ethische Bedenken auf, während andere möglicherweise das Gefühl haben, dass ein digitaler Zwilling ihnen viele neue Möglichkeiten bieten kann.
Es ist nicht einfach, ein Gleichgewicht zu finden. Und solange wir nicht klar verstehen, wie wir uns schützen, angemessene Regulierungen durchsetzen und transparentere Praktiken einführen können, befinden wir uns in einem Zustand des Hin und Her und wissen nie, wann wir einem künstlich erzeugten Betrug zum Opfer fallen, der von unserer eigenen Identität ausgeht.