Facebookova tehnologija Deepfake nas ne bo rešila, pravijo strokovnjaki

click fraud protection
  • Ker postajajo globoke ponaredke lažje izdelati, so novi in ​​izboljšani načini njihovega odkrivanja postali prednostna naloga.
  • Facebookova tehnologija za odkrivanje globokih ponaredkov uporablja obratno strojno učenje, da odkrije, ali je videoposnetek ponaredek ali ne.
  • Strokovnjaki pravijo, da bi bila uporaba tehnologije veriženja blokov najboljši način za preverjanje, ali je video resničen ali ne, saj se metoda opira na kontekstualne podatke.
Deepfake beseda v rdeči barvi, kot v slovarju

Getty Images

Facebook je v to prepričan model strojnega učenja za boj proti globokim ponaredkom, vendar strokovnjaki pravijo, da nas strojno učenje samo po sebi ne bo rešilo pred tem, da bi nas prevarali globoki ponaredki.

Podjetja, kot so Facebook, Microsoft in Google vsi si prizadevajo za boj proti globokim ponaredkom od širjenja po spletu in družbenih omrežjih. Čeprav se metode razlikujejo, obstaja ena potencialno varna metoda za odkrivanje teh lažnih videoposnetkov: verige blokov.

"[Blockchains] vam daje veliko možnosti, da potrdite globoko ponaredek na način, ki je najboljša oblika potrjevanja, ki jo vidim," Stephen Wolfram, ustanovitelj in izvršni direktor

Wolfram Research in avtor Nova vrsta znanosti, je po telefonu povedal za Lifewire.

Facebookova tehnologija Deepfake-Spotting

Tehnologija Deepfake je v zadnjih nekaj letih hitro rasla. Zavajajoči videoposnetki uporabljajo metode strojnega učenja, da naredijo stvari, kot so prekrivanje nečijega obraza na telo druge osebe, spreminjanje pogojev ozadja, lažna sinhronizacija ustnic in drugo. Segajo od neškodljivih parodij do tega, da slavne osebnosti ali javne osebnosti povedo ali naredijo nekaj, česar niso.

Strokovnjaki pravijo, da tehnologija hitro napreduje in da bodo globoke ponaredke postale bolj prepričljive (in jih je lažje ustvariti), ko bo tehnologija postala širše dostopna in bolj inovativna.

Polovica obraza je prekrita z binarno kodo

ApolitikNow / Flickr / CC By 2.0

Facebook je pred kratkim dal več vpogleda v svojo tehnologijo za odkrivanje globokih ponaredkov v sodelovanju z državno univerzo Michigan. Družbeno omrežje pravi, da se zanaša na povratni inženiring od ene same slike, ustvarjene z umetno inteligenco, do generativnega modela, uporabljenega za njeno izdelavo.

Raziskovalci, ki so sodelovali s Facebookom, so povedali, da metoda temelji na odkrivanju edinstvenih vzorcev za modelom AI, ki se uporablja za ustvarjanje globokega ponaredka.

»S posplošitvijo atribucije slik na prepoznavanje odprtega niza lahko sklepamo več informacij o generativni model, ki se uporablja za ustvarjanje globokega ponaredka, ki presega prepoznavanje, da ni bil viden prej. In s sledenjem podobnosti med vzorci zbirke globokih ponaredkov bi lahko tudi ugotovili, ali je nastala serija slik iz enega vira,« sta o njegovem globokem ponarejanju zapisala raziskovalca Xi Yin in Tan Hassner v objavi na Facebooku na blogu. metoda.

Mreža obrazov

Facebook

Wolfram pravi, da je smiselno, da uporabite strojno učenje za odkrivanje naprednega modela AI (deepfake). Vendar pa je vedno prostor za preslepitev tehnologije.

"Sploh nisem presenečen, da obstaja dostojen način strojnega učenja za [odkrivanje globokih ponaredkov]," je dejal Wolfram. »Edino vprašanje je, če se dovolj potrudiš, ali ga lahko preslepiš? Prepričan sem, da zmoreš.”

Boj proti Deepfakes na drugačen način

Namesto tega je Wolfram dejal, da verjame, da bi bila uporaba blockchaina najboljša možnost za natančno odkrivanje nekaterih vrst globokih ponaredkov. Njegovo mnenje o uporabi blockchaina nad strojnim učenjem sega v leto 2019 in dejal je, da lahko na koncu pristop blockchain zagotovi natančnejšo rešitev za naš problem globokega ponaredka.

"Pričakujem, da bi lahko gledalci slik in videoposnetkov redno preverjali verige blokov (in 'triangulacijo podatkov izračuni') podobno, kako spletni brskalniki zdaj preverjajo varnostna potrdila,« je Wolfram zapisal v članku objavljeno v Scientific American.

Ker verige blokov shranjujejo podatke v blokih, ki so nato v verigi skupaj v kronološkem vrstnem redu, in ker so decentralizirane verige blokov nespremenljive, so vneseni podatki nepovratni.

"Edino vprašanje je, če se dovolj potrudiš, ali ga lahko preslepiš? Prepričan sem, da zmoreš."

Wolfram je pojasnil, da boste z vstavitvijo videoposnetka v verigo blokov lahko videli čas, ko je bil posnet, lokacijo in druge kontekstualne informacije, ki bi vam omogočile, da ugotovite, ali je bila v kateri koli spremenjeni način.

"Na splošno, če imate več metapodatkov, ki kontekstualizirajo sliko ali video, večja je verjetnost, da boste to lahko povedali," je dejal. "Na blockchainu ne morete ponarediti časa."

Vendar je Wolfram dejal, da je uporabljena metoda - ali gre za strojno učenje ali uporabo blockchaina - odvisna od vrste globokega ponaredka, ki ga poskušate za zaščito pred (tj. video posnetkom Kim Kardashian, ki pravi nekaj neumnega ali videoposnetkom politika, ki daje izjavo oz. predlog).

"Blockchain pristop ščiti pred nekaterimi vrstami globokih ponaredkov, tako kot obdelava slik strojnega učenja ščiti pred nekaterimi vrstami globokih ponaredkov," je dejal.

Bistvo je, kot se zdi, pazljivost vseh nas, ko gre za boj proti prihajajočemu ponarejenemu potopu.