„Facebook“ „Deepfake Tech“ mūsų neišgelbės, sako ekspertai
- Kadangi giliuosius klastotes padaryti tampa vis lengviau, nauji ir patobulinti jų aptikimo būdai tapo prioritetu.
- „Facebook“ gilaus klastotės nustatymo technologija naudoja atvirkštinį mašininį mokymąsi, kad nustatytų, ar vaizdo įrašas yra gilus, ar ne.
- Ekspertai teigia, kad blokų grandinės technologijos naudojimas būtų geriausias būdas sužinoti, ar vaizdo įrašas yra tikras, ar ne, nes metodas remiasi kontekstiniais duomenimis.

Getty Images
Facebook pasitiki savo mašininio mokymosi modelis, skirtas kovoti su giliais klastotėmis, tačiau ekspertai teigia, kad vien mašininis mokymasis neapsaugos mūsų nuo klastotės.
Tokios įmonės kaip Facebook, Microsoft ir Google visi stengiasi kovoti su giliais klastotėmis išplitimo žiniatinklyje ir socialiniuose tinkluose. Nors metodai skiriasi, yra vienas patikimas būdas aptikti šiuos klaidingus vaizdo įrašus: blokų grandinės.
„[Blockchains] tiesiog suteikia jums daug galimybių patvirtinti gilų klastotę tokiu būdu, kuris yra geriausia patvirtinimo forma, kokią tik galiu matyti“, – Stephen Wolfram, bendrovės įkūrėjas ir generalinis direktorius.
„Facebook“ „Deepfake-Spotting Tech“.
Deepfake technologija per pastaruosius kelerius metus sparčiai išaugo. Klaidinančiuose vaizdo įrašuose naudojami mašininio mokymosi metodai, pvz., uždėti kažkieno veidą ant kito žmogaus kūno, pakeisti fono sąlygas, netikras lūpų sinchronizavimas ir kt. Jos svyruoja nuo nekenksmingų parodijų iki priverstinių įžymybių ar visuomenės veikėjų pasakyti ar daryti tai, ko jie to nepadarė.
Ekspertai teigia, kad technologija sparčiai tobulėja, o gilios klastotės bus tik įtikinamos (ir lengviau sukuriamos), kai technologija taps plačiau prieinama ir naujoviškesnė.

ApolitikNow / Flickr / CC By 2.0
Neseniai „Facebook“ bendradarbiaudama su Mičigano valstijos universitetu suteikė daugiau įžvalgos apie savo giliųjų klastotės aptikimo technologiją. Socialinis tinklas teigia, kad remiasi atvirkštine inžinerija nuo vieno dirbtinio intelekto sukurto vaizdo iki generatyvaus modelio, naudojamo jam sukurti.
Mokslininkai, dirbę su „Facebook“, teigė, kad šis metodas priklauso nuo unikalių AI modelio, naudojamo kuriant gilią klastotę, modelių atskleidimu.
„Apibendrindami vaizdo priskyrimą atviram atpažinimui, galime gauti daugiau informacijos apie generatyvinis modelis, naudojamas sukurti gilią klastotę, kuri neapsiriboja pripažinimu, kad jo nematėte prieš. Atsekdami gilių klastočių kolekcijos modelių panašumus, taip pat galėtume pasakyti, ar atsirado vaizdų serija iš vieno šaltinio“, – rašė mokslininkai Xi Yin ir Tan Hassner „Facebook“ tinklaraščio įraše apie gilų klastojimą. metodas.

Wolframas teigia, kad prasminga naudoti mašininį mokymąsi, kad pastebėtumėte pažangų AI modelį (gilią klastotę). Tačiau visada yra kur apgauti technologijas.
„Aš visiškai nesistebiu, kad yra tinkamas mašininio mokymosi būdas [aptikti gilius klastojimus]“, - sakė Wolframas. „Klausimas tik toks, jei įdėsi pakankamai pastangų, ar gali tai apgauti? Esu tikras, kad tu gali“.
Kova su giliomis klastotėmis kitu būdu
Vietoj to Wolframas teigė, kad, jo manymu, „blockchain“ naudojimas būtų geriausias pasirinkimas norint tiksliai nustatyti tam tikrų tipų giluminius klastojimus. Jo nuomonė apie blokų grandinės naudojimą, o ne mašininį mokymąsi, siekia 2019 m., ir jis teigė, kad galiausiai blokų grandinės metodas gali pateikti tikslesnį mūsų gilios klastotės problemos sprendimą.
„Tikiuosi, kad vaizdų ir vaizdo įrašų žiūrovai galėtų reguliariai tikrinti, ar nėra blokų grandinių (ir duomenų trianguliacijos skaičiavimai“) panašiai kaip dabar interneto naršyklės tikrina saugos sertifikatus“, – straipsnyje rašė Wolframas paskelbtas žurnale Scientific American.
Kadangi blokų grandinės saugo duomenis blokuose, kurie vėliau sujungiami chronologine tvarka, o decentralizuotos blokų grandinės yra nekintančios, įvesti duomenys yra negrįžtami.
„Klausimas tik toks, jei įdėsi pakankamai pastangų, ar gali tai apgauti? Esu tikras, kad tu gali“.
Wolframas paaiškino, kad įdėję vaizdo įrašą į blokų grandinę, galėsite matyti, kiek laiko jis užtruko, vieta ir kita kontekstinė informacija, kuri leistų pasakyti, ar ji buvo pakeista būdu.
„Apskritai, turėdami daugiau metaduomenų, kurie kontekstualizuoja vaizdą ar vaizdo įrašą, tuo didesnė tikimybė, kad galėsite tai pasakyti“, – sakė jis. „Jūs negalite suklastoti laiko „blockchain“.
Tačiau Wolframas teigė, kad naudojamas metodas – ar tai mašininis mokymasis, ar „blockchain“ naudojimas – priklauso nuo bandomojo gilaus klastojimo tipo. apsisaugoti nuo (t. y. vaizdo įrašo, kuriame Kim Kardashian pasako ką nors kvailo, arba vaizdo įrašo, kuriame politikas daro pareiškimą ar pasiūlymas).
„Blockchain metodas apsaugo nuo tam tikrų gilių klastočių rūšių, lygiai taip pat, kaip mašininio mokymosi vaizdo apdorojimas apsaugo nuo tam tikrų gilių klastočių rūšių“, - sakė jis.
Atrodo, kad svarbiausia yra mūsų visų budrumas, kai kalbama apie kovą su artėjančiu netikru potvyniu.