Expertos de NCC Group han demostrado cómo la tecnología de clonación vocal en tiempo real, basada en inteligencia artificial, puede ser utilizada para llevar a cabo ataques de phishing vocal (vishing) extremadamente convincentes. Realizaron pruebas que permitieron obtener datos confidenciales mediante la imitación de la voz de una persona en tiempo real, utilizando un modelo de aprendizaje automático entrenado en la voz de la víctima.
Esta tecnología hace que los ataques sean más creíbles, ya que permite a los atacantes responder y gestionar preguntas en tiempo real. Los expertos advierten que los ataques basados en la clonación vocal se volverán cada vez más frecuentes, y la mayoría de las llamadas de vishing implicarán voces generadas por IA hasta 2026. Aunque los ataques vocales son aún raros, las estafas basadas en texto están en aumento.