Cyberkriminelle nutzen Geräusche als Waffe, um ausgeklügelte Cyberangriffe zu starten, zu unterstützen oder voranzutreiben. Viele davon sind für Menschen völlig unmerklich, was es schwierig macht, sie vorherzusehen und zu erkennen. Wie kann sich der Durchschnittsbürger gegen diese Angriffe verteidigen?
Böse Akteure können schädliche Audiodateien abspielen oder den Lautsprecher eines Geräts auf verschiedene Weise kapern, um Hintertüren zu schaffen oder Schwachstellen auszunutzen. Sobald sie ein Netzwerk oder Gerät infiltriert haben, können sie auf den Standort des Opfers, personenbezogene Daten und Anmeldeinformationen zugreifen. Die meisten verkaufen diese Daten im Dark Web an den Meistbietenden.
Andere Angreifer wollen Schaden anrichten, entweder weil sie Wirtschaftsspionage betreiben, einen Groll hegen oder ihre Fähigkeiten testen wollen. Einige Schallwellen können Speichersysteme beschädigen. Wenn beispielsweise Festplatten unter Wasser geraten, verursachen Frequenzen zwischen 300 Hertz und 1.300 Hertz
Einige dieser Cyberangriffe ermöglichen es Cyberkriminellen, mit dem Internet verbundene Geräte aus der Ferne auszulösen oder zu manipulieren. Sie können beispielsweise einen Sprachassistenten zwingen, ein intelligentes Schloss zu öffnen, während der Hausbesitzer nicht zu Hause ist, und so unbemerkt einbrechen. Obwohl solche offensichtlichen Machenschaften selten sind, sind sie nicht unmöglich.
Dokumentierte Cyberangriffe mit Schallquellen sind relativ selten, da ihre Erkennung und Abwehr schwierig ist. Im Allgemeinen sind niederfrequente Schallwellen
Das Hacken eines intelligenten Lautsprechers, um ihn als Waffe zu nutzen, ist einer der einfachsten Cyberangriffe im Zusammenhang mit Ton. Angreifer können Schwachstellen nutzen, um eine Hintertür zu schaffen. Alternativ können sie WLAN- und Bluetooth-Netzwerke nach anfälligen Geräten durchsuchen. Sobald sie drin sind, können sie unhörbare, hochfrequente Töne auslösen, die Hörverlust, Übelkeit, Kopfschmerzen oder Schwindel verursachen.
Der Lautsprecher, den sie für ihren Angriff verwenden, erzeugt einen hochfrequenten Ton und überschreitet eine sichere Lautstärke, wenn sie ein benutzerdefiniertes Schadskript einschleusen, was beängstigend einfach ist. Längerer Gebrauch führt jedoch zu irreparablen Schäden, da die Hardware nicht speziell dafür entwickelt wurde. Wenn das Gerät nicht mehr funktioniert, ist das schlecht für seinen Besitzer, aber großartig für alle, die unter dem Lärm leiden.
Leider haben Kriminelle mehr als einen Anwendungsfall für diese unhörbaren Töne gefunden. Ein nahezu ultraschallähnlicher, unhörbarer Trojanerangriff nutzt Ultraschallwellen – die für Menschen unmerklich sind, aber problemlos von Lautsprechern, Mikrofonen und Sensoren gesendet und empfangen werden können –, um Sprachassistenten lautlos und böswillig zu steuern.
Jemand kann den Angriff starten, indem er ein Ultraschall-Trägersignal über einen angeschlossenen Lautsprecher sendet. Während die Befehlslänge
Menschen, die von solchen Cyberangriffen hören, gehen möglicherweise davon aus, dass sie sicher sind, weil sie die Spracherkennung eingerichtet haben. Sobald das Aktivierungswort den Sprachassistenten aktiviert,
Diese auf Geräusche bezogenen Cyberangriffe können sogar Umweltreize vortäuschen, um Gyroskope oder Beschleunigungsmesser zu deaktivieren oder zu manipulieren. Das Abspielen einer bösartigen Audiodatei in der Nähe eines Telefons oder eines tragbaren IoT-Geräts kann dazu führen, dass es nicht mehr funktioniert oder sich unerwartet verhält. Dieser Angriff mag harmlos erscheinen, könnte jedoch medizinische Implantate oder Sicherheitssysteme beeinträchtigen.
Das Aufkommen künstlicher Intelligenz hat die Tür für verschiedene neue, auf Ton bezogene Cyberangriffe geöffnet. Deepfakes – synthetische Bilder, Videos oder Audioaufnahmen – werden schnell zu den gängigsten. Tatsächlich sind diese
Diese Deepfakes sind erschreckend einfach zu erstellen. Mit
Leider ist Audio nicht die einzige biometrische Methode, die Cyberangriffe manipulieren können. Eine Forschungsgruppe hat kürzlich ein Identifikationssystem entwickelt, das die hörbare Reibung durch Wischbewegungen nutzt, um Merkmale von Fingerabdruckmustern zu extrahieren. Sie können über den Lautsprecher eines Geräts mithören oder ihr Programm im Hintergrund einer App starten.
Sobald Cyberkriminelle eine Reihe von Algorithmen verwenden, um die Rohdatei zu verarbeiten und zu bereinigen und so unnötiges Rauschen zu beseitigen, ist ihr System äußerst effektiv. Laut den Forschern könnten sie in einem realen Szenario eine gewichtete
KI kann auch das akustische Feedback einer Tastatur verfolgen, um herauszufinden, was genau die Leute tippen, und so möglicherweise ihre Gewohnheiten, persönlichen Daten und Passwörter offenlegen. Eine Forschungsgruppe verwendete ein fortschrittliches Deep-Learning-Modell, um Tastenanschläge zu erfassen und zu klassifizieren und demonstrierte damit die Wirksamkeit dieser Taktik.
Mithilfe eines entführten Smartphone-Mikrofons
Viele Cyberangriffe mit Geräuschen nutzen unhörbare Signale oder dauern nur wenige Millisekunden, was ihre Erkennung und Reaktion erschwert. Dennoch ist eine Abwehr mit den richtigen Strategien möglich – und effektiv.
Die Schalldämmung eines Raums – oder die Verwendung spezieller Platten, die den Schall nach außen ablenken – kann elektronische Geräte vor schädlichen äußeren Reizen schützen. Auf diese Weise werden intelligente Geräte nicht durch gehackte Lautsprecher in der Nähe beeinträchtigt.
Das Deaktivieren von Mikrofonen, Sensoren, Sprachassistenten und Lautsprechern bei Nichtgebrauch kann verhindern, dass böswillige Akteure diese für böswillige Zwecke missbrauchen. Wenn Funktionen nicht deaktiviert werden können, sollten Benutzer strenge Zugriffsberechtigungen festlegen, um unbefugte Manipulationen zu verhindern.
Apps, Smart-Geräte, Telefone und Lautsprecher werden zunehmend anfällig für Hackerangriffe, je länger sie zwischen den Updates liegen. Einzelpersonen sollten sicherstellen, dass sie alles auf dem neuesten Stand halten, um zu verhindern, dass Angreifer bekannte Schwachstellen ausnutzen oder Hintertüren erstellen.
Kein Erkennungstool ist 100 %ig korrekt. Zwar kann das Achten auf einen Roboterton oder subtile hörbare Unstimmigkeiten dabei helfen, Deepfakes zu identifizieren, aber auch das ist nicht immer genau. Stattdessen sollten sie nicht-audiobasierte Authentifizierungskontrollen verwenden, um unbefugten Zugriff zu verhindern.
Obwohl akustische Angriffe selten sind, könnten sie durch die Entwicklung künstlicher Intelligenz häufiger werden. Die Menschen sollten ihre Mikrofone, Lautsprecher und geräuschempfindlichen Sensoren überwachen, um zu verhindern, dass böswillige Akteure ihre elektronischen Geräte für böswillige Zwecke missbrauchen.