Experții de la NCC Group au arătat cum tehnologia de clonare vocală în timp real, bazată pe inteligența artificială, poate fi utilizată pentru a efectua atacuri de phishing vocal (vishing) extrem de convingătoare. Aceștia au realizat teste care au permis obținerea de date confidențiale prin imitarea vocii unei persoane în timp real, folosind un model de învățare automată antrenat pe vocea țintei.
Această tehnologie face atacurile mai credibile, deoarece permite atacatorilor să răspundă și să gestioneze întrebări în timp real. Experții avertizează că atacurile bazate pe clonarea vocală vor deveni din ce în ce mai frecvente, iar majoritatea apelurilor de vishing vor implica voci generate de AI până în 2026. Deși atacurile vocale sunt încă rare, escrocheriile bazate pe text sunt în creștere.