Evo kako vas Deepfake Audio pokretan umjetnom inteligencijom može prevariti

click fraud protection
  • Novo istraživanje pokazuje da audio lažiranje može prevariti većinu ljudi.
  • Deepfakeovi mogu destabilizirati izbore i navesti korisnike na nepovjerenje u činjenice.
  • Neki se deepfakeovi koriste za audioknjige i za slanje personaliziranih bilješki.
Netko sluša zvuk na svom telefonu koristeći slušalice dok je u vlaku.
Slušanje audio zapisa.

Flashpop / Getty Images

Ne možete vjerovati riječima koje čujete, zahvaljujući napretku u umjetnoj inteligenciji (AI).

A nedavna studija pokazuje da deepfaked audio može prevariti ljudske slušatelje otprilike 25 posto vremena. To je dio rastućeg vala Deepfake koje je generirala umjetna inteligencija izazivajući zabrinutost oko razlikovanja činjenica od fikcije.

"Nekada je bilo 'vidjeti znači vjerovati'" Nasir Memon, IEEE stipendist i profesor računalnih znanosti i inženjerstva na NYU Tandon, rekao je za Lifewire u intervjuu e-poštom. “Sada, s deepfakeovima, to više nije istina. Pojam identiteta važan je u društvu. Identitet je bitan za komunikaciju i suradnju s drugim ljudima, a povezujemo identitet sa audio značajkama."

Deepfakeovi koji zavaravaju korisnike

Audio deepfake očito je sve teže otkriti. U studiji provedenoj na Sveučilišnom koledžu u Londonu, više od 500 volontera pregledavalo je kombinaciju lažnih i pravih glasova na engleskom i mandarinskom. Neki su sudionici prethodno bili izloženi duboko lažiranim uzorcima glasa kako bi pomogli pri identifikaciji. U prosjeku, sudionici su ispravno identificirali deepfakeove u 73 posto slučajeva, bez obzira na njihovu obuku.

"Audio deepfakeovi mogu biti vrlo uvjerljivi i već se poboljšavaju svaki dan," Shawn Surber, Viši direktor tehničkog upravljanja računima u tvrtki za kibernetičku sigurnost Tanium rekao je u e-poruci. "Kako AI tehnologija napreduje, ova brojka će vjerojatno rasti, povećavajući potencijalne rizike povezane s lažnim lažnim predstavljanjima."

Cyberkriminalci mogu koristiti deepfake audio za stvaranje fiktivnih identiteta kojima je teško ući u trag, Stuart Wells, stručnjak za provjeru identiteta i glavni tehnološki direktor u Jumio Corporation, rekao je putem e-pošte. Također, kriminalac može izvršiti preuzimanje računa ugrožavajući sigurnost bankovnih računa, računa poslovne e-pošte i drugih koji pripadaju postojećim korisnicima.

"Žrtvi koja ništa ne sumnja, deepfake audio može biti teško otkriti, ali kada se analizira strojno modeli učenja dizajnirani za tu svrhu, daleko je od toga da se ne može razlikovati od ljudskog govora," on je dodao. "Kroz procjenu anatomije koja stvara govor, moguće je identificirati podrijetlo, bilo ljudsko ili strojno."

Druga opasnost od audio lažiranja je političko uplitanje putem destabiliziranja ili izbacivanja iz kolosijeka izbora, primijetio je Memon.

Audio deepfakeovi mogu biti vrlo uvjerljivi i već se poboljšavaju svakim danom.

"Nixon je u biti opozvan na temelju glasovnih snimaka, na primjer", dodao je. "Bile su to prave snimke, ali možete zamisliti što bi bilo moguće s deepfake zvukom."

Deepfake Audio nas možda neće propasti

Nije svaki deepfake audio nužno zlonamjeran. Na primjer, možete ga koristiti "da snimite sebe kako govorite nešto poput 'Volim te' voljenoj osobi kao dar iznenađenja," Mac Steer, vlasnik tehnološke tvrtke Simificiraj rekao je u e-poruci.

Google Play i Apple Books koriste Glasovi generirani umjetnom inteligencijom za njihov audio sadržaj. Izdavači na Google Playu mogu stvarati audioknjige s automatskim pripovijedanjem sve dok posjeduju prava na audioknjigu i ako se odluče za automatsko pripovijedanje.

Problem deepfake audio će rasti, uključujući iu političkoj komunikaciji, Ivan V. Pavlik, profesorica novinarstva i medijskih studija na Sveučilište Rutgers, predviđeno u e-poruci. Rekao je da će deepfake audio vjerojatno postati uobičajen na internetu, posebno na društvenim i interaktivnim medijima.

Krupni plan nekoga tko drži pametni telefon prikazuje dolazni nepoznati poziv.
Dolazni nepoznati poziv.

Calvin Chan Wai Meng / Getty Images

"Osobe će morati održavati stalnu kritičku perspektivu", dodao je. “I kad god naiđu na nešto sumnjivo, morat će pretpostaviti da je to deepfake sve dok njegova se autentičnost može provjeriti zasebno i neovisno, obično putem pouzdanih izvora medija."

Ali postoji nada da nas deepfake audio možda neće osuditi na budućnost lažnih informacija. Ljudi možda neće automatski povjerovati deepfake audio o političkom akteru kojeg favoriziraju, osobito ako dolazi iz diskreditiranog izvora, Subramaniam Vincent, direktorica novinarstva i medijske etike u Centru za primijenjenu etiku Markkula Sveučilište Santa Clara, navedeno je u e-poruci. Rekao je da čak i kada se deepfakeovi šire, mogu biti samo na internetskim forumima koji odgovaraju priči.

"Stvarni sudovi ili druge postupovne institucije utemeljene na činjenicama koje rade prema pravilima i sporije operacija relativno su izoliraniji u donošenju odluka nego sudioničke mase na internetu," rekao je dodao. "Ukratko, očekujte da će se utrka mačke i miša u naoružanju i bitke zasnovane na dubokim lažnim medijima nastaviti, pri čemu će dobri glumci utjecati na distribuciju, a loši glumci pokušavati ih pridobiti."