Apelul pare real. Cum funcționează frauda bazată pe Inteligență Artificială
Infractorii cibernetici folosesc algoritmi de Inteligență Artificială pentru a reproduce cu mare acuratețe vocea unei persoane reale. Aceștia au nevoie doar de câteva secunde de material audio, pe care îl extrag din surse accesibile – interviuri, rețele sociale, podcasturi sau declarații publice.
Cu aceste mostre vocale, IA poate genera un mesaj audio sau chiar o conversație telefonică ce pare autentică. Victima primește un apel de la un „membru al familiei” aflat aparent într-o situație de urgență – accident, arest, răpire sau lipsă de bani.
Sub presiunea emoțională, persoana sunată reacționează instinctiv și transferă bani fără să verifice apelul printr-un canal alternativ. Este exact reacția pe care escrocii o vizează: impulsul de a ajuta imediat, fără întrebări.
Au fost păcăliți oameni obișnuiți, dar și oficiali de rang înalt
Fenomenul a atins cote alarmante în 2024. În Statele Unite, au fost înregistrate peste 845.000 de tentative de fraudă prin voce clonată de Inteligență Artificială. Presa americană a relatat recent despre cazuri în care escrocii au trimis mesaje audio false inclusiv către miniștri și congresmeni, imitând vocile unor persoane publice.
În aceste înregistrări, vocile păreau 100% autentice, inclusiv în ceea ce privește intonația și emoția. Ulterior s-a demonstrat că au fost create cu ajutorul IA, pe baza unor fragmente audio publice.
În multe cazuri, înșelătoria este descoperită doar după transferul banilor, când se realizează că persoana care a cerut ajutorul nu avea nicio problemă reală.

Cum ne protejăm? Ce recomandă specialiștii în securitate
Experții în securitate cibernetică spun că prima reacție trebuie să fie scepticismul. Chiar dacă vocea sună cunoscut, este important să nu acționăm sub impulsul panicii.
Recomandările sunt clare:
-
Verificați apelul printr-un alt canal (mesaj, apel video, un alt număr de telefon);
-
Stabiliți un cod de siguranță cu membrii familiei – o frază, un cuvânt sau un detaliu care nu poate fi replicat ușor de escroci;
-
Nu trimiteți bani imediat în urma unui apel „disperat”;
-
Evitați să postați online înregistrări vocale, mai ales pe conturi publice;
-
Educați rudele în vârstă, cele mai vulnerabile la acest tip de atac.
Specialiștii spun că gândirea critică este esențială. Apelurile emoționale trebuie analizate cu calm, indiferent cât de real par.
Tehnologia avansează, legislația întârzie însă
Unul dintre cele mai alarmante aspecte ale acestei fraude bazată pe Inteligență Artificială este lipsa de reglementare. Tehnologia de clonare vocală este liber accesibilă online, iar în prezent nu există o legislație clară care să limiteze utilizarea sa.
În mâinile unor actori rău intenționați, aceste instrumente pot deveni arme periculoase. Ele nu doar păcălesc persoane fizice, ci pot afecta inclusiv instituții publice și lideri politici, prin manipulare vocală sau compromiterea de informații.
Pe măsură ce tehnologia evoluează, riscul unor atacuri mai sofisticate crește. Fără o intervenție legislativă sau educațională, fraudele prin voce clonată pot deveni una dintre cele mai comune forme de înșelăciune ale acestui deceniu.