Cyberkriminelle nutzen Geräusche als Waffe, um ausgeklügelte Cyberangriffe zu starten, zu unterstützen oder voranzutreiben. Viele davon sind für Menschen völlig unmerklich, was es schwierig macht, sie vorherzusehen und zu erkennen. Wie kann sich der Durchschnittsbürger gegen diese Angriffe verteidigen? Warum Angreifer Schallwellen als Waffe einsetzen Böse Akteure können schädliche Audiodateien abspielen oder den Lautsprecher eines Geräts auf verschiedene Weise kapern, um Hintertüren zu schaffen oder Schwachstellen auszunutzen. Sobald sie ein Netzwerk oder Gerät infiltriert haben, können sie auf den Standort des Opfers, personenbezogene Daten und Anmeldeinformationen zugreifen. Die meisten verkaufen diese Daten im Dark Web an den Meistbietenden. Andere Angreifer wollen Schaden anrichten, entweder weil sie Wirtschaftsspionage betreiben, einen Groll hegen oder ihre Fähigkeiten testen wollen. Einige Schallwellen können Speichersysteme beschädigen. Wenn beispielsweise Festplatten unter Wasser geraten, verursachen Frequenzen zwischen 300 Hertz und 1.300 Hertz und Anwendungsabstürze. bis zu 100% Datenpaketverlust Einige dieser Cyberangriffe ermöglichen es Cyberkriminellen, mit dem Internet verbundene Geräte aus der Ferne auszulösen oder zu manipulieren. Sie können beispielsweise einen Sprachassistenten zwingen, ein intelligentes Schloss zu öffnen, während der Hausbesitzer nicht zu Hause ist, und so unbemerkt einbrechen. Obwohl solche offensichtlichen Machenschaften selten sind, sind sie nicht unmöglich. Dokumentierte Cyberangriffe mit Schallquellen sind relativ selten, da ihre Erkennung und Abwehr schwierig ist. Im Allgemeinen sind niederfrequente Schallwellen weil sie besonders langanhaltend und kraftvoll sind. Hohe Frequenzen sind jedoch genauso besorgniserregend, weil sie unhörbar sind und körperliche Schäden verursachen können. sind am schwierigsten zu regulieren Arten von Audio-bezogenen Cyberangriffen Das Hacken eines intelligenten Lautsprechers, um ihn als Waffe zu nutzen, ist einer der einfachsten Cyberangriffe im Zusammenhang mit Ton. Angreifer können Schwachstellen nutzen, um eine Hintertür zu schaffen. Alternativ können sie WLAN- und Bluetooth-Netzwerke nach anfälligen Geräten durchsuchen. Sobald sie drin sind, können sie unhörbare, hochfrequente Töne auslösen, die Hörverlust, Übelkeit, Kopfschmerzen oder Schwindel verursachen. Der Lautsprecher, den sie für ihren Angriff verwenden, erzeugt einen hochfrequenten Ton und überschreitet eine sichere Lautstärke, wenn sie ein benutzerdefiniertes Schadskript einschleusen, was beängstigend einfach ist. Längerer Gebrauch führt jedoch zu irreparablen Schäden, da die Hardware nicht speziell dafür entwickelt wurde. Wenn das Gerät nicht mehr funktioniert, ist das schlecht für seinen Besitzer, aber großartig für alle, die unter dem Lärm leiden. Leider haben Kriminelle mehr als einen Anwendungsfall für diese unhörbaren Töne gefunden. Ein nahezu ultraschallähnlicher, unhörbarer Trojanerangriff nutzt Ultraschallwellen – die für Menschen unmerklich sind, aber problemlos von Lautsprechern, Mikrofonen und Sensoren gesendet und empfangen werden können –, um Sprachassistenten lautlos und böswillig zu steuern. Jemand kann den Angriff starten, indem er ein Ultraschall-Trägersignal über einen angeschlossenen Lautsprecher sendet. Während die Befehlslänge Sie können den Sprachassistenten anweisen, die Lautstärke zu reduzieren, damit ihre Manipulationen so lange wie nötig unentdeckt bleiben. Sie können ihn zwingen, eine bösartige Website zu öffnen, den Benutzer auszuspionieren oder das Mikrofon zu überlasten. darf 0,77 Sekunden nicht überschreiten Menschen, die von solchen Cyberangriffen hören, gehen möglicherweise davon aus, dass sie sicher sind, weil sie die Spracherkennung eingerichtet haben. Sobald das Aktivierungswort den Sprachassistenten aktiviert, unabhängig davon, ob sie mit der Stimme des Benutzers übereinstimmen oder nicht. Außerdem können entschlossene Angreifer Exploits oder Audio-Splicing verwenden, um Authentifizierungsmechanismen zu umgehen. wird auf jeden Befehl hören Diese auf Geräusche bezogenen Cyberangriffe können sogar Umweltreize vortäuschen, um Gyroskope oder Beschleunigungsmesser zu deaktivieren oder zu manipulieren. Das Abspielen einer bösartigen Audiodatei in der Nähe eines Telefons oder eines tragbaren IoT-Geräts kann dazu führen, dass es nicht mehr funktioniert oder sich unerwartet verhält. Dieser Angriff mag harmlos erscheinen, könnte jedoch medizinische Implantate oder Sicherheitssysteme beeinträchtigen. KI-gestützte, auf Geräusche bezogene Cyberangriffe Das Aufkommen künstlicher Intelligenz hat die Tür für verschiedene neue, auf Ton bezogene Cyberangriffe geöffnet. Deepfakes – synthetische Bilder, Videos oder Audioaufnahmen – werden schnell zu den gängigsten. Tatsächlich sind diese von 2022 bis 2023, vor allem, weil fortschrittliche KI zugänglicher wurde. Betrugsversuche nahmen um 3.000 % zu Diese Deepfakes sind erschreckend einfach zu erstellen. Mit von Audiodaten – die aus sozialen Medien, Telefonanrufen oder Man-in-the-Middle-Angriffen stammen können – können böswillige Akteure eine realistische Sounddatei generieren. Auf diese Weise können sie sich als Einzelpersonen ausgeben, biometrische Sicherheitsmaßnahmen umgehen oder Betrug begehen. nur eine Minute Leider ist Audio nicht die einzige biometrische Methode, die Cyberangriffe manipulieren können. Eine Forschungsgruppe hat kürzlich ein Identifikationssystem entwickelt, das die hörbare Reibung durch Wischbewegungen nutzt, um Merkmale von Fingerabdruckmustern zu extrahieren. Sie können über den Lautsprecher eines Geräts mithören oder ihr Programm im Hintergrund einer App starten. Sobald Cyberkriminelle eine Reihe von Algorithmen verwenden, um die Rohdatei zu verarbeiten und zu bereinigen und so unnötiges Rauschen zu beseitigen, ist ihr System äußerst effektiv. Laut den Forschern könnten sie in einem realen Szenario eine gewichtete im Durchschnitt für teilweise Fingerabdrücke und zwischen 33 % und 37,7 % für vollständige Fingerabdrücke. Angriffserfolgsrate von 27,9 % KI kann auch das akustische Feedback einer Tastatur verfolgen, um herauszufinden, was genau die Leute tippen, und so möglicherweise ihre Gewohnheiten, persönlichen Daten und Passwörter offenlegen. Eine Forschungsgruppe verwendete ein fortschrittliches Deep-Learning-Modell, um Tastenanschläge zu erfassen und zu klassifizieren und demonstrierte damit die Wirksamkeit dieser Taktik. Mithilfe eines entführten Smartphone-Mikrofons im Durchschnitt. Ihre Genauigkeit lag bei 93 % bei der Audioaufzeichnung über einen Videoanruf, was zeigt, dass sie nicht in der Nähe ihres Opfers sein müssen, um Tastenanschläge zu entziffern. Leider nutzt dieser Seitenkanalangriff gebrauchsfertige Geräte, was bedeutet, dass er sogar für Hacker mit niedrigerem Kenntnisstand zugänglich ist. Forscher erreichten eine Genauigkeit von 95 % So schützen Sie sich vor diesen akustischen Angriffen Viele Cyberangriffe mit Geräuschen nutzen unhörbare Signale oder dauern nur wenige Millisekunden, was ihre Erkennung und Reaktion erschwert. Dennoch ist eine Abwehr mit den richtigen Strategien möglich – und effektiv. 1. Schalldichte empfindliche Elektronik Die Schalldämmung eines Raums – oder die Verwendung spezieller Platten, die den Schall nach außen ablenken – kann elektronische Geräte vor schädlichen äußeren Reizen schützen. Auf diese Weise werden intelligente Geräte nicht durch gehackte Lautsprecher in der Nähe beeinträchtigt. 2. Audio-Ein- und -Ausgang deaktivieren Das Deaktivieren von Mikrofonen, Sensoren, Sprachassistenten und Lautsprechern bei Nichtgebrauch kann verhindern, dass böswillige Akteure diese für böswillige Zwecke missbrauchen. Wenn Funktionen nicht deaktiviert werden können, sollten Benutzer strenge Zugriffsberechtigungen festlegen, um unbefugte Manipulationen zu verhindern. 3. Halten Sie Geräte auf dem neuesten Stand Apps, Smart-Geräte, Telefone und Lautsprecher werden zunehmend anfällig für Hackerangriffe, je länger sie zwischen den Updates liegen. Einzelpersonen sollten sicherstellen, dass sie alles auf dem neuesten Stand halten, um zu verhindern, dass Angreifer bekannte Schwachstellen ausnutzen oder Hintertüren erstellen. 4. Nutzen Sie Authentifizierungskontrollen Kein Erkennungstool ist 100 %ig korrekt. Zwar kann das Achten auf einen Roboterton oder subtile hörbare Unstimmigkeiten dabei helfen, Deepfakes zu identifizieren, aber auch das ist nicht immer genau. Stattdessen sollten sie nicht-audiobasierte Authentifizierungskontrollen verwenden, um unbefugten Zugriff zu verhindern. Halten Sie die Ohren offen, um diese Cyberangriffe zu verhindern Obwohl akustische Angriffe selten sind, könnten sie durch die Entwicklung künstlicher Intelligenz häufiger werden. Die Menschen sollten ihre Mikrofone, Lautsprecher und geräuschempfindlichen Sensoren überwachen, um zu verhindern, dass böswillige Akteure ihre elektronischen Geräte für böswillige Zwecke missbrauchen.