Des experts du NCC Group ont montré comment la technologie de clonage vocal en temps réel, basée sur l'intelligence artificielle, peut être utilisée pour effectuer des attaques de phishing vocal (vishing) extrêmement convaincantes. Ils ont réalisé des tests qui ont permis d'obtenir des données confidentielles en imitant la voix d'une personne en temps réel, en utilisant un modèle d'apprentissage automatique entraîné sur la voix de la cible.
Cette technologie rend les attaques plus crédibles, car elle permet aux attaquants de répondre et de gérer des questions en temps réel. Les experts avertissent que les attaques basées sur le clonage vocal deviendront de plus en plus fréquentes, et que la plupart des appels de vishing impliqueront des voix générées par l'IA d'ici 2026. Bien que les attaques vocales soient encore rares, les escroqueries basées sur le texte sont en augmentation.