De ce înșelătoriile vocale AI înseamnă că probabil că nu ar trebui să răspundeți niciodată la telefon
- Escrocherii cu inteligența artificială, folosind voci clonate ale unor oameni pe care îi cunoști, sunt un lucru.
- Detectarea înșelătoriilor de clonare a vocii AI devine din ce în ce mai dificilă.
- A te proteja este la fel ca în cazul apelurilor obișnuite de înșelătorie.

Westend61 / Getty Images
Imaginați-vă că primiți un apel de la un membru al familiei sau un prieten apropiat. Au probleme și au nevoie de bani. Numărul verifică. Este vocea lor. Dar nu sunt ei. Este un imitator AI care te înșeală.
Conform un raport de la McAfee, aceste escrocherii vocale AI sunt în creștere datorită imitatorilor AI. Și, deși au existat într-o formă sau alta pentru totdeauna, tehnologia face ca convingerea să fie deosebit de convingătoare. Falsificarea ID-ului apelantului combinată cu clonarea vocii AI ar convinge probabil majoritatea oamenilor. Deci, cum funcționează? Și cum te poți proteja?
„Este adevărat că generarea vocii AI se îmbunătățește extrem de rapid. Tehnologia de clonare a vocii ElevenLabs este înfricoșător de bun, mai ales când luați în considerare cantitatea mică de date necesare pentru ca acesta să funcționeze. Pot vedea situații în care oamenii pot fi păcăliți, mai ales dacă sunt plasați într-o stare de emoții intense”, consultant AI.
Clonarea vocii duce la escrocherii vocale AI
Înarmat cu o voce clonată, un escroc poate suna și pretinde că este cineva pe care îl cunoști deja. De exemplu, în aprilie, a fost un poveste despre o mamă înșelată cu o falsă răpire a fiicei ei folosind o voce clonată de AI.
Pare cu totul incredibil că așa ceva este chiar posibil, dar neîncrederea noastră poate face aceste escrocherii și mai eficiente.
Înșelătoriile vocale AI pot fi adaptate pentru a construi profiluri extrem de personalizate ale țintelor prin ingerarea datelor din surse publice de internet.
Deci, cum funcționează? Pentru a clona o voce, aveți nevoie de o înregistrare a vocii originale. Datorită videoclipurilor TikTok și Instagram, există o mulțime de date de antrenament. Iar postările pe rețelele tale de socializare scurg o mulțime de alte date despre relațiile tale cu oamenii pentru a fi folosite pentru a face o înșelătorie mai convingătoare.
În acest moment, nivelul de efort este încă ridicat. Trebuie să alegeți o țintă, să găsiți un exemplu de voce, să o clonați și să efectuați apelul, falsificând ID-ul apelantului pe parcurs. Dar dacă știm ceva, este că escrocii sunt probabil să devină din ce în ce mai sofisticați.
„Înșelătoriile vocale AI pot fi adaptate pentru a construi profiluri extrem de personalizate ale țintelor prin ingerarea datelor din surse publice de internet. Seturile de instrumente de inginerie socială există de ani de zile și sunt ușor utilizate de criminalii cibernetici din zilele noastre pentru a agrega informații despre victimele țintă. Spre deosebire de dezavantajele cibernetice moderne, AI nu obosește și nu se descurajează deloc, ca să nu mai vorbim că poate sintetiza aproape orice voce și orice limbă.” James Leone, consultant în securitate cibernetică la IBM, a spus Lifewire prin e-mail.
Și o înșelătorie nu trebuie să fie o tentativă de răpire falsă. Ar putea fi, în egală măsură, un chatbot AI care să te sune și să pretindă că este de la banca ta. Asta mai mult la nivelul de automatizare a 419 escrocherii, acele escrocherii clasice prin e-mail în care un prinț nigerian dorea să-și scoată banii din țară. Dacă nu aveți nevoie de oameni care să facă apelul, puteți inunda lumea cu spam pentru apeluri vocale.
„Cel mai mare pericol este cât de ușor și ieftin este să comiți acest tip de escrocherie. În trecut, aceste tipuri de falsuri necesitau 10 ore de audio (sau video) ale unui subiect, dar acum, pentru că tehnologia avansează atât de repede, tot ce are nevoie oricine este doar 10 secunde de sunet.” Rijul Gupta, CEO și co-fondator al DeepMedia, o companie de creație și detecție de deepfake, a declarat Lifewire prin e-mail.

Vă puteți proteja împotriva înșelătoriilor de clonare a vocii AI?
În ciuda naturii de înaltă tehnologie a acestor escrocherii, modul de a vă proteja de escrocherii telefonice nu s-a schimbat prea mult.
În primul rând, nu ar trebui să aveți încredere în ID-ul apelantului. Apoi, ar trebui să închideți întotdeauna și să sunați înapoi la un număr pe care îl aveți deja sau să căutați singur.
Acest lucru se ocupă de aproape toate înșelătoriile „obișnuite”, dar ar trebui să fie eficient și împotriva înșelătoriilor de voce clonate. Problema acolo este elementul de inginerie socială. Dacă ID-ul apelantului te îndeamnă să te aștepți să-ți auzi soțul, iar clona vocii este bună și sună ca soțul tău, atunci s-ar putea să fii convins. Momentan, modelele sunt bune, dar nu chiar atât de bune.
„[E] important să înțelegem că aceste modele nu sunt încă capabile de schimbări realiste de ton. Un mic clip al vocii care necesită doar un ton poate păcăli oamenii, un clip mai lung, probabil, nu", spune Batt.
Dar, având în vedere viteza de dezvoltare a inteligenței artificiale în acest moment, înșelătoriile cu clonarea vocii se vor îmbunătăți, așa că ar fi bine să fim atenți și poate nu mai primim apeluri de la numerele pe care nu le recunoașteți.