Lo que comenzó como una herramienta extra para los smartphones ha evolucionado a gadgets independientes con un sistema de voz más avanzado, el cual se ha convertido en otra herramienta indispensable para las marcas, aunado a que ya existen varias marcas de uso doméstico en el mercado.
Entre las diversas marcas como Siri, de Apple, Alexa de Amazon, Cortana de Microsoft y Google Assistant, desarrollaron complejos sistemas de inteligencia artificial, cuyas funciones de voz fueron siempre vendidas como “anti-hackeables”, hasta que investigadores chinos descubrieron una vulnerabilidad en los asistentes de voz de Apple, Google, Amazon, Microsoft, Samsung y Huawei.
De acuerdo con The Guardian, investigadores de la Universidad de Zhejiang diseñaron una técnica llamada “Dolphin Attack”, el cual tradujo varios comandos vocales a frecuencias ultrasónicas, las cuales son descifrables por el software que alimenta los asistentes de voz, es decir, dicho proceso permitiría a los hackers tomar el control de los gadgets con solo unas pocas palabras pronunciadas en frecuencias que las personas no pueden oír.
Al parecer, la vulnerabilidad en el software de los comandos de voz también afectaría a los iPhone, Macbook que ejecutan Siri, así como los modelos Galaxy, de Samsung, e incluso computadoras con Windows 10. Según los investigadores asiáticos, podrían pedir a una Macbook o Nexus 7 abrir un sitio web malicioso.
Concretamente, para hackear un asistente de voz, los investigadores usaron un Smartphone, más un altavoz, así como un hardware adicional para “manipular el comando de frecuencias de voz” por lo que al manipular los asistentes de voz podrían instalar códigos maliciosos, o malware en los gadgets de las personas.
Para analistas informáticos, el diseño de los micrófonos de los asistentes de voz hacen que sea difícil protegerse de este tipo de ataques, ya que los componentes de sus micrófonos utilizan componentes que no pueden ser bloqueados por ultrasonidos.