Phishing ist vielleicht die hartnäckigste Bedrohung für die Cybersicherheit und wird immer schlimmer. Solange Menschen Menschen sind, werden sie Fehler machen. Daher ist es für jeden Cyberkriminellen eine todsichere Strategie, menschliche Schwächen ins Visier zu nehmen. Auch wenn sich daran im Laufe der Jahre nichts geändert hat, haben neue Technologien zu einer weitaus unheimlicheren Version dieser Bedrohungen geführt – Deepfake-Phishing.
Deepfakes nutzen Deep-Learning-Algorithmen, um gefälschte Inhalte zu generieren, die der Realität verblüffend ähnlich sehen. Häufige Beispiele sind gefälschte Videos, in denen eine Person des öffentlichen Lebens etwas tut oder sagt, was sie nie gesagt oder getan hat. Deepfake-Phishing nutzt diese KI-generierten Inhalte, um glaubwürdigere Phishing-Versuche zu entwickeln.
In einem Fall der CEO eines Energieunternehmens
Diese Angriffe sind gefährlich, weil Deepfakes nur schwer von der Realität zu unterscheiden sind. Möglicherweise fehlen ihnen auch verräterische Anzeichen für Phishing – wie Rechtschreibfehler oder verdächtige Links –, da sie in Form von Audio- oder Videoinhalten vorliegen. Je besser sich die KI verbessert, desto überzeugender werden sie auch.
Deepfake-Phishing ist nicht nur gefährlich – es nimmt auch mit alarmierender Geschwindigkeit zu. Einem Bericht zufolge
Dieser Anstieg des Deepfake-Phishing ist wahrscheinlich darauf zurückzuführen, dass Deep-Learning-Modelle immer zugänglicher werden. Diese fortschrittlichen KI-Algorithmen erforderten früher umfassende Erfahrung in der Datenwissenschaft oder ein großes Budget. Mittlerweile sind viele kostenlose oder kostengünstige fortgeschrittene KI-Modelle verfügbar, für deren Verwendung kaum oder gar keine Programmierkenntnisse erforderlich sind.
Derselbe Trend wird in Zukunft wahrscheinlich zu einer Zunahme von Deepfake-Phishing-Versuchen führen. Generative KI ist zugänglicher denn je. Dies hat zwar viele positive Auswirkungen, bedeutet aber auch, dass es für Cyberkriminelle immer einfacher wird, überzeugende KI-generierte gefälschte Inhalte zu erstellen.
E-Mail-Phishing kostet US-Unternehmen Kosten
Auch wenn Deepfake-Phishing eine Bedrohung darstellt, können sich Unternehmen davor schützen. Die folgenden Schritte helfen Unternehmen und ihren Mitarbeitern, sich vor diesen wachsenden Bedrohungen zu schützen.
Erstens müssen Unternehmen den Zugriff auf alle internen Konten sichern. Deepfake-Phishing ist am effektivsten, wenn es von einem echten, vertrauenswürdigen, aber kompromittierten Konto ausgeht. Folglich werden diese Angriffe untergraben, wenn der Einbruch erschwert wird.
Die Multi-Faktor-Authentifizierung (MFA) ist unerlässlich – und auch die Art der MFA, die Menschen verwenden, spielt eine Rolle. Sicherheitsexperten warnen vor Deepfakes
Wie beim regulären Phishing ist auch hier die Schulung der Mitarbeiter von entscheidender Bedeutung. Während Deepfakes schwer zu erkennen sein können, gibt es einige häufige Hinweise. Visuelle Fehler wie Ruckeln oder Unschärfe kommen bei Deepfakes häufig vor, ebenso wie seltsame akustische Hinweise wie verzerrte Stimmen. Wenn Sie Ihren Mitarbeitern diese Anzeichen beibringen und sie vor Deepfake-Phishing warnen, ist es weniger wahrscheinlich, dass sie darauf hereinfallen.
Selbst mit dieser Schulung werden Menschen nicht in der Lage sein, Deepfakes mit 100-prozentiger Genauigkeit zu erkennen. Daher ist es auch wichtig zu betonen, dass jeder auf Nummer sicher gehen sollte. Als Faustregel gilt: Wenn etwas verdächtig oder auch nur ein wenig ungewöhnlich erscheint, überprüfen Sie es, bevor Sie ihm vertrauen.
Da Deepfake-Phishing immer beliebter wird, wird die Bekämpfung von Feuer mit Feuer – oder genauer gesagt KI mit KI – immer wichtiger. Dieselbe Technologie, die Deepfakes ermöglicht, kann dabei helfen, sie zu erkennen, und es sind bereits mehrere Erkennungsmodelle verfügbar. Alternativ könnten Unternehmen mit umfassender KI-Erfahrung ihr eigenes Unternehmen aufbauen.
Erkennungsmodelle können Menschen bei der Erkennung von Deepfakes übertreffen, aber
Da weder ein Mensch noch ein KI-Modell Deepfakes jederzeit erkennen kann, benötigen Unternehmen eine zweite und dritte Verteidigungslinie. Am wichtigsten ist, dass Arbeitsabläufe oder technische Stopps verhindern, dass ein Fehler die Sicherheit des Unternehmens gefährdet. Ein gutes Beispiel ist die Anforderung mehrerer Autorisierungsschritte für große Finanztransfers.
Um jemandem Zugang zu sensiblen Daten zu gewähren oder einen ausreichend großen Geldbetrag zu senden, sollten mehrere Personen oder Authentifizierungsmaßnahmen erforderlich sein. Diese Stopps beeinträchtigen möglicherweise die Effizienz, geben den Mitarbeitern jedoch Zeit, über ihre Maßnahmen nachzudenken. Durch die Einbindung weiterer Personen und Systeme erhöht sich auch die Chance des Unternehmens, einen Deepfake-Angriff zu erkennen.
Schließlich sollten Marken und Sicherheitsexperten über die Trends zu Deepfake und Cyberkriminalität auf dem Laufenden bleiben. Cyberkriminalität entwickelt sich ständig weiter und die KI schreitet schneller voran als viele andere Technologien, sodass einige Abwehrmaßnahmen oder bewährte Sicherheitspraktiken leicht veraltet sein können.
Neue generative KI-Tools
Phishing ist vielleicht nichts Neues, aber neue Technologien wie Deepfakes fügen eine gefährliche Dimension hinzu. So spannend KI auch ist, so wichtig ist es auch zu erkennen, wie Cyberkriminelle die gleichen Tools nutzen können, die auch Unternehmen nutzen. Wenn Unternehmen es versäumen, Cybersicherheitspraktiken parallel zu neuen Technologien weiterzuentwickeln, könnten Unternehmen verwundbar werden, bevor sie es bemerken.
Sensibilisierung und Schulung bleiben wesentliche Schritte zur Verhinderung von Phishing-Angriffen. Wenn Mitarbeiter wissen, dass sie sich vor Deepfakes in Acht nehmen sollten, ist die Wahrscheinlichkeit geringer, dass sie darauf hereinfallen. Die Betonung dieses menschlichen Elements bei gleichzeitiger regelmäßiger Anpassung der technischen Abwehrmaßnahmen wird Unternehmen trotz dieser fortschreitenden Bedrohungen schützen.