Los asistentes por voz podrían estar en manos de los hackers

  • Actualidad

Siri, Alexa o Google Now nos hacen la vida más fácil, pero también pueden representar un serio peligro de seguridad a través de los DoplhinAttack. [Vídeo]

Investigadores de la Zhejiang University de China han sido capaces de controlar asistentes por voz tan populares como Apple Siri, Amazon Alexa o Google Now mediante comandos de voz inaudibles para el ser humano y con un hardware de menos de cinco dólares.

Todos los detalles de la investigación están a tu disposición en este Whitepaper.

También puedes leer...

Informe global sobre Seguridad de la Información 2016-2017

Evolución de los ataques con exploits

GDPR: todas sus claves

Riesgos de IoT en las empresas

Desarrollo de estrategias de ciberseguridad nacional

La técnica, a la que han bautizado como DolphinAttack, podría ser utilizada para espiar a los usuarios, desconectarles de una red, hacer una llamada de teléfono o acceder a sites maliciosos.

Para ello los investigadores explotan una vulnerabilidad de seguridad que aparentemente es común a los asistentes por vez más populares. Se trata de susurrar a los asistentes a un volumen tan bajo que, aunque el oído humano no es capaz de detectarlo, es perfectamente sí que pueden recoger los micrófonos de los terminales móviles, que sí son capaces de detectar señales por debajo de una frecuencia de 20kHz.

El trabajo de los investigadores fue grabar comandos de voz para después pasarlos a la frecuencia que no fuera detectada y reproducirlos desde un terminal móvil, Samsung Galaxy S6 Edge, equipado con un amplificador, un transductor de ultrasonidos y una batería. Y se dieron cuenta de que funcionaba, tanto si se trataba de un Apple como de un Android.

En sus pruebas se utilizaron frases como “activar modo avión”, “llama al 1234567890” o “abrir dolphinattack.com”. Eso sí, el kit de ataque fue colocado con una relativa proximidad al dispositivo hackeable, y es que la distancia máxima a la que funciona este nuevo tipo de ataque fue de menos de dos metros. También hay que tener en cuenta que cuando un sistema de reconocimiento está activado puede responder a un comando o activar algún indicador luminoso que advierta a la potencial víctima.