paint-brush
Cómo los ciberdelincuentes están utilizando las ondas sonoras como armaspor@zacamos
650 lecturas
650 lecturas

Cómo los ciberdelincuentes están utilizando las ondas sonoras como armas

por Zac Amos5m2024/08/06
Read on Terminal Reader

Demasiado Largo; Para Leer

Los atacantes pueden utilizar ondas sonoras para secuestrar dispositivos, crear puertas traseras y manipular dispositivos interconectados. De manera similar, el audio deepfake crea una nueva vía para los ciberataques relacionados con el sonido. Para defenderse de estos ataques, insonorice los dispositivos electrónicos sensibles, desactive la entrada y salida de audio, mantenga los dispositivos actualizados y utilice controles de autenticación.
featured image - Cómo los ciberdelincuentes están utilizando las ondas sonoras como armas
Zac Amos HackerNoon profile picture
0-item

Los ciberdelincuentes están utilizando el sonido como arma para lanzar, respaldar o impulsar ciberataques sofisticados. Muchos son completamente imperceptibles para los humanos, lo que hace que sea difícil anticiparlos y detectarlos. ¿Cómo puede la persona promedio defenderse de estos ataques?

Por qué los atacantes están utilizando las ondas sonoras como armas

Los malos actores pueden reproducir archivos de audio maliciosos o secuestrar el altavoz de un dispositivo de varias maneras para crear puertas traseras o explotar vulnerabilidades. Una vez que se infiltran en una red o dispositivo, pueden acceder a la ubicación de la víctima, a información de identificación personal y a credenciales de inicio de sesión. La mayoría venderá esos detalles en la web oscura al mejor postor.


Otros atacantes buscan causar daño, ya sea porque están realizando espionaje corporativo, guardan rencor o quieren probar sus capacidades. Algunas ondas acústicas pueden dañar los sistemas de almacenamiento. Por ejemplo, cuando se sumergen unidades de disco duro, frecuencias que van desde 300 Hertz a 1300 Hertz dan como resultado hasta el 100% de pérdida de paquetes de datos y la aplicación falla.


Algunos de estos ciberataques permiten a los ciberdelincuentes activar o manipular dispositivos conectados a Internet de forma remota. Por ejemplo, pueden obligar a un asistente de voz a desbloquear una cerradura inteligente mientras el propietario está fuera, lo que les permite entrar sin ser detectados. Si bien estos esquemas descarados son raros, no son imposibles.


Los ciberataques documentados relacionados con el sonido pueden ser relativamente poco comunes porque detectarlos y defenderse contra ellos es difícil. Generalmente, ondas sonoras de baja frecuencia. son los más difíciles de regular porque son particularmente largos y poderosos. Sin embargo, las altas frecuencias son igualmente preocupantes porque son inaudibles y pueden causar daño físico.

Tipos de ciberataques relacionados con el sonido

Hackear un altavoz inteligente para convertirlo en un arma es uno de los ciberataques relacionados con el sonido más simples. Los atacantes pueden utilizar vulnerabilidades para crear una puerta trasera. Alternativamente, pueden escanear redes Wi-Fi y Bluetooth en busca de dispositivos vulnerables. Una vez dentro, pueden activar tonos inaudibles de alta frecuencia que causan pérdida de audición, náuseas, dolores de cabeza o mareos.


El altavoz que utilizan para lanzar su ataque producirá un tono de alta frecuencia y excederá un volumen seguro si inyectan un script malicioso personalizado, lo cual es inquietantemente fácil de hacer. Sin embargo, el uso prolongado causará daños irreparables ya que el hardware no está diseñado específicamente. Que el dispositivo quede inoperable es malo para su propietario, pero excelente para cualquiera que sufra el ruido.


Desafortunadamente, los malos actores han encontrado más de un caso de uso para estos tonos inaudibles. Un ataque troyano casi inaudible por ultrasonido utiliza ondas ultrasónicas (que son imperceptibles para los humanos pero que los parlantes, micrófonos y sensores envían y reciben fácilmente) para controlar a los asistentes de voz de manera silenciosa y maliciosa.


Alguien puede lanzar el ataque transmitiendo una señal portadora ultrasónica a través de un altavoz conectado. Mientras que la longitud del comando no puede exceder los 0,77 segundos , pueden indicarle al asistente de voz que reduzca el volumen para que su manipulación no sea detectada durante el tiempo que necesiten. Pueden obligarlo a abrir un sitio web malicioso, espiar al usuario o sobrecargar el micrófono.


Las personas que se enteran de este tipo de ataques cibernéticos pueden asumir que están a salvo porque han configurado el reconocimiento de voz. Desafortunadamente, una vez que la palabra de activación activa el asistente de voz, escuchará las órdenes de cualquiera independientemente de si coinciden o no con la voz del usuario. Además, los atacantes decididos pueden utilizar exploits o empalmes de audio para eludir los mecanismos de autenticación.


Estos ciberataques relacionados con el sonido pueden incluso falsificar estímulos ambientales para desactivar o alterar giroscopios o acelerómetros. Reproducir un archivo de audio malicioso lo suficientemente cerca de un teléfono o dispositivo portátil de Internet de las cosas puede hacer que deje de funcionar o se comporte de manera inesperada. Este ataque puede parecer inofensivo, pero podría afectar a implantes médicos o sistemas de seguridad.

Ciberataques relacionados con el sonido impulsados por IA

La aparición de la inteligencia artificial ha abierto la puerta a varios nuevos ciberataques relacionados con el sonido. Los deepfakes (imágenes, vídeos o grabaciones de audio sintéticos) se están convirtiendo rápidamente en los más comunes. De hecho, estos Los intentos de fraude aumentaron un 3.000% de 2022 a 2023, en gran parte porque la IA avanzada se volvió más accesible.


Estos deepfakes son alarmantemente fáciles de crear. Con tan solo un minuto de audio, que puede provenir de las redes sociales, llamadas telefónicas o ataques de intermediarios, los malos actores pueden generar un archivo de sonido realista. De esta forma, pueden hacerse pasar por personas, saltarse las medidas de seguridad biométrica o cometer fraude.


Desafortunadamente, el audio no es el único sonido biométrico relacionado con los ciberataques que pueden manipular. Un grupo de investigación desarrolló recientemente un sistema de identificación que aprovecha la fricción audible creada al deslizar el dedo para extraer características del patrón de huellas dactilares. Pueden escuchar a través del altavoz de un dispositivo o iniciar su programa en segundo plano de una aplicación.


Una vez que los ciberdelincuentes utilizan una colección de algoritmos para procesar y limpiar el archivo sin formato, eliminando cualquier ruido innecesario, su sistema se vuelve muy efectivo. Según los investigadores, en un escenario del mundo real, podrían lograr una ponderación tasa de éxito del ataque del 27,9% en promedio para huellas dactilares parciales y entre 33%-37,7% para huellas completas.


La IA también puede rastrear la respuesta audible que genera un teclado para descubrir exactamente qué están escribiendo las personas, exponiendo potencialmente sus hábitos, información personal y contraseñas. Un grupo de investigación utilizó un modelo avanzado de aprendizaje profundo para capturar y clasificar las pulsaciones de teclas, lo que demuestra la eficacia de esta táctica.


Utilizando el micrófono de un teléfono inteligente secuestrado, el Los investigadores lograron una precisión del 95%. de media. Su precisión fue del 93% al capturar audio durante una videollamada, lo que resalta que no necesitan estar cerca de su víctima para descifrar las pulsaciones de teclas. Desafortunadamente, este ataque de canal lateral aprovecha el equipo listo para usar, lo que significa que es accesible incluso para piratas informáticos de bajo nivel.

Cómo defenderse de estos ataques acústicos

Muchos ciberataques relacionados con el sonido aprovechan señales inaudibles o duran solo unos pocos milisegundos a la vez, lo que dificulta su detección y respuesta. Dicho esto, defenderse de ellos todavía es posible (y eficaz) con las estrategias adecuadas.

1. Electrónica sensible insonorizada

Insonorizar una habitación (o utilizar paneles especializados para desviar el sonido hacia afuera) puede proteger los dispositivos electrónicos de estímulos externos maliciosos. De esta manera, los dispositivos inteligentes no se verán afectados por ningún altavoz pirateado cercano.

2. Deshabilite la entrada y salida de audio

Deshabilitar micrófonos, sensores, asistentes de voz y parlantes cuando no estén en uso puede evitar que los delincuentes se apropien de ellos con fines maliciosos. Si las funciones no se pueden desactivar, los usuarios deberían considerar establecer permisos de acceso estrictos para evitar manipulaciones no autorizadas.

3. Mantenga los dispositivos actualizados

Las aplicaciones, los dispositivos inteligentes, los teléfonos y los parlantes se vuelven cada vez más vulnerables a la piratería cuanto más tiempo pasan entre actualizaciones. Las personas deben asegurarse de mantener todo actualizado para evitar que los atacantes exploten vulnerabilidades conocidas o creen puertas traseras.

4. Utilice controles de autenticación

Ninguna herramienta de detección es 100% correcta. Si bien escuchar un tono robótico o sutiles inconsistencias audibles puede ayudar a las personas a identificar deepfakes, tampoco siempre es exacto. En lugar de ello, deberían utilizar controles de autenticación no basados en audio para evitar el acceso no autorizado.

Esté atento para prevenir estos ciberataques

Aunque los ataques acústicos son poco comunes, la aparición de la IA puede hacerlos más comunes. Las personas deben monitorear sus micrófonos, parlantes y sensores sensibles al sonido para evitar que los delincuentes se apropien de sus dispositivos electrónicos con fines maliciosos.