A pesar de que el uso de la Inteligencia Artificial (IA) no es nuevo, han surgido algunas investigaciones donde especialistas advierten sobre algunos daños que esta tecnología puede realizar. Un ejemplo es la investigadores de Microsoft que han desarrollado un programa de conversión de texto a voz con IA a un nivel humano de credibilidad, por lo que advierten que clon de voz de IA es real y puede resultar peligrosos.
Y es que las voces ya no son únicas, ya que con la llegada de la inteligencia artificial se ha permitido clonarlas con facilidad. Esta tecnología, que utiliza sofisticados algoritmos para imitar la voz de una persona a partir de muestras de audio, está despertando un gran interés por sus potenciales aplicaciones, pero también genera preocupaciones éticas y legales.
Ante eso, según datos de Grand View Research el mercado de la clonación de voz con IA se prevé que alcance un valor de mil 140 millones de dólares para el año 2026.
Por su parte, un estudio de Juniper Research resaltó que para el año 2023, el 40 por ciento de las grandes empresas ya están utilizando la clonación de voz de alguna manera. También un informe de la Unión Europea advierte sobre los riesgos de la clonación de voz y pide una regulación más estricta de esta tecnología.
Advierten sobre clon de voz de IA
Es tan realista que los creadores mantienen la interfaz de alta tecnología como “puramente un proyecto de investigación” y todavía no permitirán que sea utilizada por el público.
VALL-E 2, como se le llama, es el primer programa vocal de IA de su tipo para “lograr la paridad humana”, anunció Microsoft. En otras palabras, no se puede diferenciar del habla de una persona.
Hasta ahora, desarrollos más rudimentarios pueden detectarse como IA a través de pequeños matices en la palabrería, según la información.
En particular, se dice que VALL-E 2 es muy claro “incluso para oraciones que tradicionalmente son desafiantes debido a su complejidad o frases repetitivas”, según un artículo sobre el software.
También puede replicar una voz completamente después de escuchar tan solo tres segundos de audio.
El programa también “supera los sistemas anteriores en robustez del habla, naturalidad y similitud de los hablantes”, señalaron los investigadores.
Sus creadores tienen buenas intenciones de uso tanto médico (como ayuda para personas con afasia o discapacidades patológicas similares) como social.
Específicamente, los investigadores se jactan de que VALL-E 2 podría usarse para aprendizaje educativo, entretenimiento, periodismo, contenido de autoría, funciones de accesibilidad, sistemas interactivos de respuesta de voz, traducción, chatbot, etc.”.
Sin embargo, no ignoran el posible uso indebido de una herramienta tan poderosa.
“Puede conllevar riesgos potenciales en el mal uso del modelo, como falsificar la identificación de voz o hacerse pasar por un hablante específico”.
Por ello, “no hay planes de incorporar VALL-E 2 a un producto ni ampliar el acceso al público”.
La suplantación de voz, la creación de una voz falsa para llamadas telefónicas y otras interacciones a larga distancia, se está convirtiendo en un problema preocupante debido a la fácil accesibilidad de los programas de inteligencia artificial. Apple acaba de incluirlo como una de las principales preocupaciones en medio de un aumento del phishing.
Los ancianos suelen ser el objetivo, pero algunas madres han recibido llamadas falsas de que sus hijos fueron secuestrados para pedir un rescate, creyendo erróneamente que era su hijo el que estaba al otro lado de la línea.
Expertos, como Lisa Palmer, estratega de la firma consultora AI Leaders, recomiendan que las familias y los seres queridos creen contraseñas verbales bien guardadas para compartir por teléfono en caso de duda.
Ahora lee:
Proveedores de tiendita se unen al mismo tiempo y esto pasó
Es revelada nueva mercancía de Star Wars de Walmart en TikTok