Los ciberdelincuentes están utilizando el sonido como arma para lanzar, respaldar o impulsar ciberataques sofisticados. Muchos son completamente imperceptibles para los humanos, lo que hace que sea difícil anticiparlos y detectarlos. ¿Cómo puede la persona promedio defenderse de estos ataques?
Los malos actores pueden reproducir archivos de audio maliciosos o secuestrar el altavoz de un dispositivo de varias maneras para crear puertas traseras o explotar vulnerabilidades. Una vez que se infiltran en una red o dispositivo, pueden acceder a la ubicación de la víctima, a información de identificación personal y a credenciales de inicio de sesión. La mayoría venderá esos detalles en la web oscura al mejor postor.
Otros atacantes buscan causar daño, ya sea porque están realizando espionaje corporativo, guardan rencor o quieren probar sus capacidades. Algunas ondas acústicas pueden dañar los sistemas de almacenamiento. Por ejemplo, cuando se sumergen unidades de disco duro, frecuencias que van desde 300 Hertz a 1300 Hertz dan como resultado
Algunos de estos ciberataques permiten a los ciberdelincuentes activar o manipular dispositivos conectados a Internet de forma remota. Por ejemplo, pueden obligar a un asistente de voz a desbloquear una cerradura inteligente mientras el propietario está fuera, lo que les permite entrar sin ser detectados. Si bien estos esquemas descarados son raros, no son imposibles.
Los ciberataques documentados relacionados con el sonido pueden ser relativamente poco comunes porque detectarlos y defenderse contra ellos es difícil. Generalmente, ondas sonoras de baja frecuencia.
Hackear un altavoz inteligente para convertirlo en un arma es uno de los ciberataques relacionados con el sonido más simples. Los atacantes pueden utilizar vulnerabilidades para crear una puerta trasera. Alternativamente, pueden escanear redes Wi-Fi y Bluetooth en busca de dispositivos vulnerables. Una vez dentro, pueden activar tonos inaudibles de alta frecuencia que causan pérdida de audición, náuseas, dolores de cabeza o mareos.
El altavoz que utilizan para lanzar su ataque producirá un tono de alta frecuencia y excederá un volumen seguro si inyectan un script malicioso personalizado, lo cual es inquietantemente fácil de hacer. Sin embargo, el uso prolongado causará daños irreparables ya que el hardware no está diseñado específicamente. Que el dispositivo quede inoperable es malo para su propietario, pero excelente para cualquiera que sufra el ruido.
Desafortunadamente, los malos actores han encontrado más de un caso de uso para estos tonos inaudibles. Un ataque troyano casi inaudible por ultrasonido utiliza ondas ultrasónicas (que son imperceptibles para los humanos pero que los parlantes, micrófonos y sensores envían y reciben fácilmente) para controlar a los asistentes de voz de manera silenciosa y maliciosa.
Alguien puede lanzar el ataque transmitiendo una señal portadora ultrasónica a través de un altavoz conectado. Mientras que la longitud del comando
Las personas que se enteran de este tipo de ataques cibernéticos pueden asumir que están a salvo porque han configurado el reconocimiento de voz. Desafortunadamente, una vez que la palabra de activación activa el asistente de voz,
Estos ciberataques relacionados con el sonido pueden incluso falsificar estímulos ambientales para desactivar o alterar giroscopios o acelerómetros. Reproducir un archivo de audio malicioso lo suficientemente cerca de un teléfono o dispositivo portátil de Internet de las cosas puede hacer que deje de funcionar o se comporte de manera inesperada. Este ataque puede parecer inofensivo, pero podría afectar a implantes médicos o sistemas de seguridad.
La aparición de la inteligencia artificial ha abierto la puerta a varios nuevos ciberataques relacionados con el sonido. Los deepfakes (imágenes, vídeos o grabaciones de audio sintéticos) se están convirtiendo rápidamente en los más comunes. De hecho, estos
Estos deepfakes son alarmantemente fáciles de crear. Con
Desafortunadamente, el audio no es el único sonido biométrico relacionado con los ciberataques que pueden manipular. Un grupo de investigación desarrolló recientemente un sistema de identificación que aprovecha la fricción audible creada al deslizar el dedo para extraer características del patrón de huellas dactilares. Pueden escuchar a través del altavoz de un dispositivo o iniciar su programa en segundo plano de una aplicación.
Una vez que los ciberdelincuentes utilizan una colección de algoritmos para procesar y limpiar el archivo sin formato, eliminando cualquier ruido innecesario, su sistema se vuelve muy efectivo. Según los investigadores, en un escenario del mundo real, podrían lograr una ponderación
La IA también puede rastrear la respuesta audible que genera un teclado para descubrir exactamente qué están escribiendo las personas, exponiendo potencialmente sus hábitos, información personal y contraseñas. Un grupo de investigación utilizó un modelo avanzado de aprendizaje profundo para capturar y clasificar las pulsaciones de teclas, lo que demuestra la eficacia de esta táctica.
Utilizando el micrófono de un teléfono inteligente secuestrado, el
Muchos ciberataques relacionados con el sonido aprovechan señales inaudibles o duran solo unos pocos milisegundos a la vez, lo que dificulta su detección y respuesta. Dicho esto, defenderse de ellos todavía es posible (y eficaz) con las estrategias adecuadas.
Insonorizar una habitación (o utilizar paneles especializados para desviar el sonido hacia afuera) puede proteger los dispositivos electrónicos de estímulos externos maliciosos. De esta manera, los dispositivos inteligentes no se verán afectados por ningún altavoz pirateado cercano.
Deshabilitar micrófonos, sensores, asistentes de voz y parlantes cuando no estén en uso puede evitar que los delincuentes se apropien de ellos con fines maliciosos. Si las funciones no se pueden desactivar, los usuarios deberían considerar establecer permisos de acceso estrictos para evitar manipulaciones no autorizadas.
Las aplicaciones, los dispositivos inteligentes, los teléfonos y los parlantes se vuelven cada vez más vulnerables a la piratería cuanto más tiempo pasan entre actualizaciones. Las personas deben asegurarse de mantener todo actualizado para evitar que los atacantes exploten vulnerabilidades conocidas o creen puertas traseras.
Ninguna herramienta de detección es 100% correcta. Si bien escuchar un tono robótico o sutiles inconsistencias audibles puede ayudar a las personas a identificar deepfakes, tampoco siempre es exacto. En lugar de ello, deberían utilizar controles de autenticación no basados en audio para evitar el acceso no autorizado.
Aunque los ataques acústicos son poco comunes, la aparición de la IA puede hacerlos más comunes. Las personas deben monitorear sus micrófonos, parlantes y sensores sensibles al sonido para evitar que los delincuentes se apropien de sus dispositivos electrónicos con fines maliciosos.