Iată cum vă poate păcăli sunetul Deepfake alimentat de AI
- Noile cercetări arată că deepfake-urile audio pot păcăli majoritatea oamenilor.
- Deepfake-urile pot destabiliza alegerile și pot conduce utilizatorii la neîncredere în fapte.
- Unele deepfake-uri sunt folosite pentru cărți audio și pentru a trimite note personalizate.

Flashpop / Getty Images
Nu poți avea încredere în cuvintele pe care le auzi, datorită progreselor în inteligența artificială (AI).
A studiu recent arată că audio deepfake poate înșela ascultătorii umani aproximativ 25 la sută din timp. Face parte dintr-un val în creștere de Deepfake-uri generate de AI provocând îngrijorări cu privire la distingerea faptelor de ficțiune.
„Odinioară, „a vedea înseamnă a crede”” Nasir Memon, bursier IEEE și profesor de informatică și inginerie la NYU Tandon, a declarat pentru Lifewire într-un interviu prin e-mail. „Acum, cu deepfakes, asta nu mai este adevărat. Noțiunea de identitate este importantă în societate. Identitatea este esențială pentru comunicarea și colaborarea cu alți oameni, iar noi asociem identitatea cu funcțiile audio.”
Deepfakes care păcălesc utilizatorii
Deepfake-urile audio sunt aparent din ce în ce mai greu de detectat. În studiul efectuat la University College London, peste 500 de voluntari au analizat o combinație de voci false și autentice în engleză și mandarină. Unii participanți au fost expuși în prealabil la mostre de voce falsificate profund pentru a ajuta la identificare. În medie, participanții au identificat corect deepfake-urile în 73 la sută din timp, indiferent de pregătirea lor.
„Deepfake-urile audio pot fi foarte convingătoare și deja se îmbunătățesc în fiecare zi”, Shawn Surber, Director senior al managementului tehnic al conturilor la firma de securitate cibernetică Tanium spus într-un e-mail. „Pe măsură ce tehnologia AI avansează, este probabil ca această cifră să crească, crescând riscurile potențiale asociate cu usurările false”.
Infractorii cibernetici pot folosi sunetul deepfake pentru a crea identități fictive care pot fi dificil de urmărit, Stuart Wells, un expert în verificarea identității și Chief Technology Officer la Jumio Corporation, a spus prin e-mail. De asemenea, criminalul poate efectua preluări de conturi care amenință securitatea conturilor bancare, a conturilor de e-mail de afaceri și multe altele aparținând utilizatorilor existenți.
„Pentru o victimă nebănuitoare, sunetul deepfake poate fi dificil de detectat, dar atunci când este analizat de mașină modele de învățare concepute în acest scop, este departe de a nu se distinge de vorbirea generată de oameni.” el a adăugat. „Prin estimarea anatomiei care creează vorbirea, este posibil să se identifice originea, fie umană sau mașină.”
Un alt pericol al deepfake-urilor audio este interferența politică prin destabilizarea sau deraiarea alegerilor, a remarcat Memon.
Deepfake-urile audio pot fi foarte convingătoare și deja se îmbunătățesc în fiecare zi.
„Nixon a fost în esență pus sub acuzare pe baza înregistrărilor vocale, de exemplu”, a adăugat el. „Acelea au fost înregistrări reale, dar vă puteți imagina ce ar fi posibil cu deepfake audio.”
Deepfake Audio ar putea să nu ne condamne
Nu toate sunetele deepfake sunt neapărat neintenționate. De exemplu, îl puteți folosi „pentru a vă înregistra spunând ceva de genul „Te iubesc” unei persoane dragi ca un cadou surpriză”. Mac Steer, proprietarul companiei de tehnologie Simify spus într-un e-mail.
Google Play și Apple Books folosesc Voci generate de AI pentru conținutul lor audio. Editorii de pe Google Play pot crea cărți audio cu narațiuni automate, atâta timp cât dețin drepturile asupra cărții audio și optează pentru narațiune automată.
Problema audio deepfake va crește, inclusiv în comunicarea politică, Ioan V. Pavlik, profesor de jurnalism și studii media la Universitatea Rutgers, a prezis într-un e-mail. El a spus că audio deepfake va deveni probabil comun online, în special pe rețelele sociale și interactive.

Calvin Chan Wai Meng / Getty Images
„Oamenii vor trebui să mențină o perspectivă critică constant”, a adăugat el. „Și ori de câte ori întâlnesc ceva suspect, va fi necesar să se presupună că este un deepfake până la Autenticitatea sa poate fi verificată separat și independent, de obicei prin surse media de știri de încredere.”
Dar există speranță că audio deepfake ar putea să nu ne condamne la un viitor de informații false. Este posibil ca oamenii să nu creadă automat sunetul deepfake despre un actor politic pe care îl favorizează, mai ales dacă provine dintr-o sursă discreditată, Subramaniam Vincent, Director de Jurnalism și Etica Media la Markkula Center for Applied Ethics la Universitatea Santa Clara, notat într-un e-mail. El a spus că, chiar și atunci când deepfake-urile se răspândesc, acestea pot fi doar în forumuri online care se potrivesc narațiunii.
„Instanțele de judecată propriu-zise sau alte instituții procedurale bazate pe fapte care funcționează cu reguli și cu viteze mai mici operațiunile sunt relativ mai izolate în luarea deciziilor decât mulțimile participative online”, el adăugat. „Pe scurt, așteptați-vă ca cursa înarmărilor pisica și șoarecele și bătăliile deepfake bazate pe mass-media să continue, cu actori buni care influențează distribuția și actori răi încercând să câștige asupra lor”.