paint-brush
Deepfake-Phishing ist im Jahr 2023 um 3.000 % gewachsen – und es fängt gerade erst anvon@zacamos
4,138 Lesungen
4,138 Lesungen

Deepfake-Phishing ist im Jahr 2023 um 3.000 % gewachsen – und es fängt gerade erst an

von Zac Amos4m2024/02/21
Read on Terminal Reader

Zu lang; Lesen

Deepfake-Phishing nutzt KI-generierte Inhalte, um glaubwürdigere Phishing-Versuche zu erstellen – und diese Versuche stiegen allein im Jahr 2023 um 3000 %. Um sich vor Deepfake-Phishing zu schützen, sollten Unternehmen den Kontozugriff sichern, Mitarbeiter schulen, KI mit KI bekämpfen, Ausfallsicherungen einführen und sich entwickelnde Bedrohungen überwachen.
featured image - Deepfake-Phishing ist im Jahr 2023 um 3.000 % gewachsen – und es fängt gerade erst an
Zac Amos HackerNoon profile picture
0-item

Phishing ist vielleicht die hartnäckigste Bedrohung für die Cybersicherheit und wird immer schlimmer. Solange Menschen Menschen sind, werden sie Fehler machen. Daher ist es für jeden Cyberkriminellen eine todsichere Strategie, menschliche Schwächen ins Visier zu nehmen. Auch wenn sich daran im Laufe der Jahre nichts geändert hat, haben neue Technologien zu einer weitaus unheimlicheren Version dieser Bedrohungen geführt – Deepfake-Phishing.

Was ist Deepfake-Phishing?

Deepfakes nutzen Deep-Learning-Algorithmen, um gefälschte Inhalte zu generieren, die der Realität verblüffend ähnlich sehen. Häufige Beispiele sind gefälschte Videos, in denen eine Person des öffentlichen Lebens etwas tut oder sagt, was sie nie gesagt oder getan hat. Deepfake-Phishing nutzt diese KI-generierten Inhalte, um glaubwürdigere Phishing-Versuche zu entwickeln.


In einem Fall der CEO eines Energieunternehmens 220.000 € an einen Lieferanten geschickt nachdem ich einen Anruf vom Leiter der Muttergesellschaft erhalten hatte, der den Austausch beantragte. Allerdings hat der eigentliche Chef diese Übertragung nie angeordnet und der „Lieferant“ war das Konto eines Cyberkriminellen. Es stellte sich heraus, dass es sich bei dem Anruf um eine Fälschung der Stimme des wahren Anführers handelte.


Diese Angriffe sind gefährlich, weil Deepfakes nur schwer von der Realität zu unterscheiden sind. Möglicherweise fehlen ihnen auch verräterische Anzeichen für Phishing – wie Rechtschreibfehler oder verdächtige Links –, da sie in Form von Audio- oder Videoinhalten vorliegen. Je besser sich die KI verbessert, desto überzeugender werden sie auch.

Der Aufstieg des Deepfake-Phishing

Deepfake-Phishing ist nicht nur gefährlich – es nimmt auch mit alarmierender Geschwindigkeit zu. Einem Bericht zufolge Deepfake-Betrugsversuche stiegen um 3.000 % im Jahr 2023. Die gleiche Untersuchung ergab auch, dass Cyberkriminelle Deepfake-Videos und -Bilder verwenden, um die biometrische Sicherheit zu umgehen, was zu Angriffen zur Kontokompromittierung führen kann.


Dieser Anstieg des Deepfake-Phishing ist wahrscheinlich darauf zurückzuführen, dass Deep-Learning-Modelle immer zugänglicher werden. Diese fortschrittlichen KI-Algorithmen erforderten früher umfassende Erfahrung in der Datenwissenschaft oder ein großes Budget. Mittlerweile sind viele kostenlose oder kostengünstige fortgeschrittene KI-Modelle verfügbar, für deren Verwendung kaum oder gar keine Programmierkenntnisse erforderlich sind.


Derselbe Trend wird in Zukunft wahrscheinlich zu einer Zunahme von Deepfake-Phishing-Versuchen führen. Generative KI ist zugänglicher denn je. Dies hat zwar viele positive Auswirkungen, bedeutet aber auch, dass es für Cyberkriminelle immer einfacher wird, überzeugende KI-generierte gefälschte Inhalte zu erstellen.


E-Mail-Phishing kostet US-Unternehmen Kosten durchschnittlich 4,91 Millionen US-Dollar , auch ohne vorherrschende Deepfake-Bedrohungen. Es ist nur eine Frage der Zeit, bis mehr Kriminelle Deepfakes auf diesen lukrativen und relativ einfachen Angriffsvektor anwenden.

So schützen Sie sich vor Deepfake-Phishing

Auch wenn Deepfake-Phishing eine Bedrohung darstellt, können sich Unternehmen davor schützen. Die folgenden Schritte helfen Unternehmen und ihren Mitarbeitern, sich vor diesen wachsenden Bedrohungen zu schützen.

Sicherer Kontozugriff

Erstens müssen Unternehmen den Zugriff auf alle internen Konten sichern. Deepfake-Phishing ist am effektivsten, wenn es von einem echten, vertrauenswürdigen, aber kompromittierten Konto ausgeht. Folglich werden diese Angriffe untergraben, wenn der Einbruch erschwert wird.


Die Multi-Faktor-Authentifizierung (MFA) ist unerlässlich – und auch die Art der MFA, die Menschen verwenden, spielt eine Rolle. Sicherheitsexperten warnen vor Deepfakes kann die Gesichts- und Stimmerkennung täuschen Daher ist die Biometrie nicht die sicherste Option. App-basierte Einmalcodes und Hardwareschlüssel sind angesichts von Deepfake-Bedrohungen sicherere MFA-Optionen.

Mitarbeiter schulen

Wie beim regulären Phishing ist auch hier die Schulung der Mitarbeiter von entscheidender Bedeutung. Während Deepfakes schwer zu erkennen sein können, gibt es einige häufige Hinweise. Visuelle Fehler wie Ruckeln oder Unschärfe kommen bei Deepfakes häufig vor, ebenso wie seltsame akustische Hinweise wie verzerrte Stimmen. Wenn Sie Ihren Mitarbeitern diese Anzeichen beibringen und sie vor Deepfake-Phishing warnen, ist es weniger wahrscheinlich, dass sie darauf hereinfallen.


Selbst mit dieser Schulung werden Menschen nicht in der Lage sein, Deepfakes mit 100-prozentiger Genauigkeit zu erkennen. Daher ist es auch wichtig zu betonen, dass jeder auf Nummer sicher gehen sollte. Als Faustregel gilt: Wenn etwas verdächtig oder auch nur ein wenig ungewöhnlich erscheint, überprüfen Sie es, bevor Sie ihm vertrauen.

Bekämpfe KI mit KI

Da Deepfake-Phishing immer beliebter wird, wird die Bekämpfung von Feuer mit Feuer – oder genauer gesagt KI mit KI – immer wichtiger. Dieselbe Technologie, die Deepfakes ermöglicht, kann dabei helfen, sie zu erkennen, und es sind bereits mehrere Erkennungsmodelle verfügbar. Alternativ könnten Unternehmen mit umfassender KI-Erfahrung ihr eigenes Unternehmen aufbauen.


Erkennungsmodelle können Menschen bei der Erkennung von Deepfakes übertreffen, aber Kein Detektor ist 100 % genau noch. Cyberkriminelle werden mit der Verbesserung ihrer Methoden auch neue Wege entwickeln, um sie zu umgehen. Daher sind KI-Schutzmaßnahmen zwar hilfreich, Unternehmen sollten sich jedoch nicht darauf verlassen.

Setzen Sie Failsafes ein

Da weder ein Mensch noch ein KI-Modell Deepfakes jederzeit erkennen kann, benötigen Unternehmen eine zweite und dritte Verteidigungslinie. Am wichtigsten ist, dass Arbeitsabläufe oder technische Stopps verhindern, dass ein Fehler die Sicherheit des Unternehmens gefährdet. Ein gutes Beispiel ist die Anforderung mehrerer Autorisierungsschritte für große Finanztransfers.


Um jemandem Zugang zu sensiblen Daten zu gewähren oder einen ausreichend großen Geldbetrag zu senden, sollten mehrere Personen oder Authentifizierungsmaßnahmen erforderlich sein. Diese Stopps beeinträchtigen möglicherweise die Effizienz, geben den Mitarbeitern jedoch Zeit, über ihre Maßnahmen nachzudenken. Durch die Einbindung weiterer Personen und Systeme erhöht sich auch die Chance des Unternehmens, einen Deepfake-Angriff zu erkennen.

Überwachen Sie sich entwickelnde Bedrohungen

Schließlich sollten Marken und Sicherheitsexperten über die Trends zu Deepfake und Cyberkriminalität auf dem Laufenden bleiben. Cyberkriminalität entwickelt sich ständig weiter und die KI schreitet schneller voran als viele andere Technologien, sodass einige Abwehrmaßnahmen oder bewährte Sicherheitspraktiken leicht veraltet sein können.


Neue generative KI-Tools mehrmals im Monat auftauchen , und einige dieser Updates können Bedrohungen gefährlicher machen. Alternativ könnten einige Updates eine wirksamere Möglichkeit bieten, Deepfake-Phishing zu stoppen. Es ist gleichermaßen wichtig, beide Veränderungen zu erkennen. Regelmäßige Überprüfungen aktueller Trends und Prüfungen interner Sicherheitsprozesse werden Unternehmen dabei helfen, den Überblick über diese Veränderungen zu behalten.

Cybersicherheitspraktiken müssen sich angesichts neuer Bedrohungen weiterentwickeln

Phishing ist vielleicht nichts Neues, aber neue Technologien wie Deepfakes fügen eine gefährliche Dimension hinzu. So spannend KI auch ist, so wichtig ist es auch zu erkennen, wie Cyberkriminelle die gleichen Tools nutzen können, die auch Unternehmen nutzen. Wenn Unternehmen es versäumen, Cybersicherheitspraktiken parallel zu neuen Technologien weiterzuentwickeln, könnten Unternehmen verwundbar werden, bevor sie es bemerken.


Sensibilisierung und Schulung bleiben wesentliche Schritte zur Verhinderung von Phishing-Angriffen. Wenn Mitarbeiter wissen, dass sie sich vor Deepfakes in Acht nehmen sollten, ist die Wahrscheinlichkeit geringer, dass sie darauf hereinfallen. Die Betonung dieses menschlichen Elements bei gleichzeitiger regelmäßiger Anpassung der technischen Abwehrmaßnahmen wird Unternehmen trotz dieser fortschreitenden Bedrohungen schützen.