paint-brush
Comment les cybercriminels utilisent les ondes sonores comme une armepar@zacamos
505 lectures
505 lectures

Comment les cybercriminels utilisent les ondes sonores comme une arme

par Zac Amos5m2024/08/06
Read on Terminal Reader

Trop long; Pour lire

Les attaquants peuvent utiliser des ondes sonores pour détourner des appareils, créer des portes dérobées et manipuler des appareils interconnectés. De la même manière, les deepfakes audio créent une nouvelle voie pour les cyberattaques liées au son. Pour vous défendre contre ces attaques, insonorisez les appareils électroniques sensibles, désactivez les entrées et sorties audio, maintenez les appareils à jour et utilisez les contrôles d'authentification.
featured image - Comment les cybercriminels utilisent les ondes sonores comme une arme
Zac Amos HackerNoon profile picture
0-item

Les cybercriminels utilisent le son comme arme pour lancer, soutenir ou mener des cyberattaques sophistiquées. La plupart d'entre elles sont totalement imperceptibles pour les humains, ce qui les rend difficiles à anticiper et à détecter. Comment une personne moyenne peut-elle se défendre contre ces attaques ?

Pourquoi les attaquants utilisent les ondes sonores comme arme

Les acteurs malveillants peuvent diffuser des fichiers audio malveillants ou détourner le haut-parleur d'un appareil de diverses manières pour créer des portes dérobées ou exploiter des vulnérabilités. Une fois qu'ils ont infiltré un réseau ou un appareil, ils peuvent accéder à la localisation de la victime, à ses informations personnelles identifiables et à ses identifiants de connexion. La plupart d'entre eux vendront ces informations sur le dark web au plus offrant.


D'autres attaquants cherchent à causer des dommages, soit parce qu'ils mènent des activités d'espionnage industriel, soit parce qu'ils sont rancuniers, soit parce qu'ils veulent tester leurs capacités. Certaines ondes acoustiques peuvent endommager les systèmes de stockage. Par exemple, lorsque les disques durs sont immergés, des fréquences allant de 300 à 1 300 Hertz provoquent des interférences. jusqu'à 100 % de perte de paquets de données et l'application plante.


Certaines de ces cyberattaques permettent aux cybercriminels de déclencher ou de manipuler à distance des appareils connectés à Internet. Par exemple, ils peuvent forcer un assistant vocal à déverrouiller une serrure intelligente pendant l'absence du propriétaire, ce qui leur permet de pénétrer dans la maison sans se faire remarquer. Si de telles manœuvres flagrantes sont rares, elles ne sont pas impossibles.


Les cyberattaques documentées liées au son peuvent être relativement rares car il est difficile de les détecter et de s'en défendre. En général, les ondes sonores à basse fréquence sont les plus difficiles à réglementer car elles sont particulièrement longues et puissantes. Cependant, les hautes fréquences sont tout aussi préoccupantes car elles sont inaudibles et peuvent causer des dommages physiques.

Types de cyberattaques liées au son

Pirater une enceinte connectée pour l'utiliser comme arme est l'une des cyberattaques les plus simples liées au son. Les attaquants peuvent exploiter les vulnérabilités pour créer une porte dérobée. Ils peuvent également analyser les réseaux Wi-Fi et Bluetooth à la recherche d'appareils vulnérables. Une fois à l'intérieur, ils peuvent déclencher des sons inaudibles à haute fréquence qui provoquent une perte auditive, des nausées, des maux de tête ou des étourdissements.


Le haut-parleur qu'ils utilisent pour lancer leur attaque produira un son à haute fréquence et dépassera le volume de sécurité s'ils injectent un script malveillant personnalisé, ce qui est incroyablement facile à faire. Cependant, une utilisation prolongée entraînera des dommages irréparables car le matériel n'est pas conçu à cet effet. L'appareil qui devient inutilisable est mauvais pour son propriétaire, mais excellent pour toute personne affectée par le bruit.


Malheureusement, les acteurs malveillants ont trouvé plus d’un cas d’utilisation pour ces sons inaudibles. Une attaque de cheval de Troie inaudible proche des ultrasons utilise des ondes ultrasonores (imperceptibles pour les humains mais facilement envoyées et reçues par les haut-parleurs, les microphones et les capteurs) pour commander des assistants vocaux de manière silencieuse et malveillante.


Quelqu'un peut lancer l'attaque en transmettant un signal porteur ultrasonique via un haut-parleur connecté. Alors que la longueur de la commande ne peut pas dépasser 0,77 seconde , ils peuvent ordonner à l'assistant vocal de réduire son volume afin que leur altération ne soit pas détectée aussi longtemps qu'ils le souhaitent. Ils peuvent le forcer à ouvrir un site Web malveillant, à espionner l'utilisateur ou à surcharger le microphone.


Les personnes qui entendent parler de telles cyberattaques peuvent penser qu'elles sont en sécurité parce qu'elles ont configuré la reconnaissance vocale. Malheureusement, une fois que le mot d'activation active l'assistant vocal, il écoutera les ordres de n'importe qui indépendamment du fait qu'ils correspondent ou non à la voix de l'utilisateur. En outre, des attaquants déterminés peuvent utiliser des exploits ou des épissures audio pour contourner les mécanismes d'authentification.


Ces cyberattaques liées au son peuvent même usurper des stimuli environnementaux pour désactiver ou altérer des gyroscopes ou des accéléromètres. La lecture d'un fichier audio malveillant suffisamment près d'un téléphone ou d'un objet connecté à Internet peut provoquer son arrêt ou son comportement inattendu. Cette attaque peut sembler inoffensive, mais elle pourrait affecter des implants médicaux ou des systèmes de sécurité.

Cyberattaques liées au son alimentées par l'IA

L’émergence de l’intelligence artificielle a ouvert la porte à de nouvelles cyberattaques liées au son. Les deepfakes – images, vidéos ou enregistrements audio synthétiques – deviennent rapidement les plus courants. En fait, ces les tentatives de fraude ont augmenté de 3 000 % de 2022 à 2023, en grande partie parce que l’IA avancée est devenue plus accessible.


Ces deepfakes sont étonnamment faciles à créer. en seulement une minute En utilisant des fichiers audio (qui peuvent provenir des réseaux sociaux, d’appels téléphoniques ou d’attaques de type « man-in-the-middle »), des acteurs malveillants peuvent générer un fichier sonore réaliste. Ils peuvent ainsi se faire passer pour des personnes, contourner les mesures de sécurité biométriques ou commettre des fraudes.


Malheureusement, l'audio n'est pas le seul élément biométrique susceptible d'être manipulé par les cyberattaques liées au son. Un groupe de recherche a récemment développé un système d'identification qui exploite la friction audible créée par les mouvements de balayage pour extraire les caractéristiques des empreintes digitales. Les chercheurs peuvent écouter via le haut-parleur d'un appareil ou lancer leur programme en arrière-plan d'une application.


Une fois que les cybercriminels utilisent un ensemble d'algorithmes pour traiter et nettoyer le fichier brut, en éliminant tout bruit inutile, leur système est très efficace. Selon les chercheurs, dans un scénario réel, ils pourraient obtenir un résultat pondéré taux de réussite des attaques de 27,9 % en moyenne pour les empreintes digitales partielles et entre 33% et 37,7% pour les empreintes complètes.


L'IA peut également suivre le retour sonore émis par un clavier pour déterminer exactement ce que les gens tapent, exposant ainsi potentiellement leurs habitudes, leurs informations personnelles et leurs mots de passe. Un groupe de recherche a utilisé un modèle avancé d'apprentissage profond pour capturer et classer les frappes au clavier, démontrant ainsi l'efficacité de cette tactique.


À l'aide d'un microphone de smartphone détourné, le les chercheurs ont atteint une précision de 95 % En moyenne, leur précision était de 93 % lors de la capture audio d'un appel vidéo, ce qui montre qu'ils n'ont pas besoin d'être à proximité de leur victime pour déchiffrer les frappes au clavier. Malheureusement, cette attaque par canal auxiliaire utilise un équipement prêt à l'emploi, ce qui signifie qu'elle est accessible même aux pirates informatiques de bas niveau.

Comment se défendre contre ces attaques acoustiques

De nombreuses cyberattaques sonores utilisent des signaux inaudibles ou ne durent que quelques millisecondes, ce qui rend leur détection et leur réponse difficiles. Cela dit, il est toujours possible de s'en défendre, et ce de manière efficace, avec les bonnes stratégies.

1. Électronique sensible à l'insonorisation

L'insonorisation d'une pièce, ou l'utilisation de panneaux spéciaux pour dévier le son vers l'extérieur, peut protéger les appareils électroniques des stimuli externes malveillants. De cette façon, les appareils intelligents ne seront pas affectés par les enceintes piratées à proximité.

2. Désactiver l'entrée et la sortie audio

La désactivation des microphones, des capteurs, des assistants vocaux et des haut-parleurs lorsqu'ils ne sont pas utilisés peut empêcher les acteurs malveillants de les détourner à des fins malveillantes. Si les fonctionnalités ne peuvent pas être désactivées, les utilisateurs doivent envisager de définir des autorisations d'accès strictes pour empêcher toute altération non autorisée.

3. Maintenez les appareils à jour

Les applications, les appareils intelligents, les téléphones et les enceintes deviennent de plus en plus vulnérables au piratage à mesure que les mises à jour s'allongent. Les particuliers doivent veiller à tout maintenir à jour pour empêcher les attaquants d'exploiter les vulnérabilités connues ou de créer des portes dérobées.

4. Utilisez les contrôles d'authentification

Aucun outil de détection n'est fiable à 100 %. Si l'écoute d'un son robotique ou de subtiles incohérences audibles peut aider les utilisateurs à identifier les deepfakes, elle n'est pas toujours précise non plus. Il est préférable d'utiliser des contrôles d'authentification non audio pour empêcher tout accès non autorisé.

Restez à l’écoute pour éviter ces cyberattaques

Bien que les attaques acoustiques soient rares, l'émergence de l'IA pourrait les rendre plus courantes. Les utilisateurs doivent surveiller leurs microphones, leurs haut-parleurs et leurs capteurs sensibles au son pour empêcher les acteurs malveillants de détourner leurs appareils électroniques à des fins malveillantes.