Suklastoti vaizdo įrašus lengva, rodo gilią nostalgiją

Key Takeaways

  • Deep Nostalgia yra nauja programa, leidžianti animuoti senas nuotraukas.
  • Ši technologija parodo, kaip lengva kurti vaizdo įrašus, kuriuose žmonės daro tai, ko jie iš tikrųjų nėra darę realiame gyvenime.
  • „Deep fake“ technologija jau yra tokia sudėtinga, kad sunku pasakyti, ar vaizdo įrašas yra tikras, ar sukurtas kompiuteriu, sako vienas ekspertas.
žmogaus veidas su 3D tinkleliu ir atpažinimo ženklais
imaginima / Getty Images

Būkite atsargūs su nauja programine įranga, kuri gali sukurti vadinamuosius „gilius klastotes“, kuriose gali būti imituojami tikrų žmonių vaizdo įrašai, perspėja ekspertai.

Gili nostalgija, išleido įmonė MyHeritage, yra populiari socialinėje žiniasklaidoje, o vartotojai atgaivina visus nuo žinomų kompozitorių iki mirusių giminaičių. Programinė įranga sulaukia įvairių reakcijų: vieni žmonės džiaugiasi kūriniu, o kiti jiems atrodo šiurpi. Ši technologija parodo, kaip lengva kurti vaizdo įrašus, kuriuose žmonės daro tai, ko jie iš tikrųjų nėra darę realiame gyvenime.

„Deepfake technologija darosi vis sudėtingesnė ir pavojingesnė“, – Aaronas Lawsonas, SRI International direktoriaus padėjėjas.

Kalbėjimo technologijų ir tyrimų (STAR) laboratorija, sakė interviu el. „Tai iš dalies lemia dirbtinio intelekto prigimtis. Kai „tradicinei“ technologijai tobulėti reikia žmogaus laiko ir energijos, dirbtinis intelektas gali mokytis iš savęs.

"Tačiau AI gebėjimas vystytis yra dviašmenis kardas", - tęsė Lawsonas. „Jei AI sukurtas daryti ką nors geranoriško, puiku. Tačiau kai dirbtinis intelektas yra sukurtas kažkam kenkėjiškam, pavyzdžiui, giliems klastotėms, pavojus yra beprecedentis.

Programinė įranga atgaivina nuotraukas

Genealogijos svetainė „MyHeritage“ praėjusį mėnesį pristatė animacijos variklį. Ši technologija, žinoma kaip „Deep Nostalgia“, leidžia vartotojams animuoti nuotraukas „MyHeritage“ svetainėje. Bendrovė, vadinama D-ID, sukūrė „MyHeritage“ algoritmus, kurie skaitmeniniu būdu atkuria žmonių veidų judėjimą. Programinė įranga pritaiko judesius nuotraukoms ir modifikuoja veido išraiškas, kad judėtų taip, kaip paprastai daro žmonių veidai, teigiama „MyHeritage“ svetainėje.

Gili nostalgija rodo, kad padirbtos technologijos tampa vis labiau prieinamos, interviu el. paštu sakė Kanzaso valstijos universiteto kompiuterių mokslų profesorius Lioras Shamiras. Jis sparčiai vystosi ir pašalina net subtilius skirtumus tarp netikro ir tikro vaizdo ir garso.

„Taip pat buvo padaryta didelė pažanga siekiant realaus laiko padirbti, o tai reiškia, kad vaizdo komunikacijos metu sukuriami įtikinami gilūs netikri vaizdo įrašai“, - sakė Shamiras. „Pavyzdžiui, galima surengti „Zoom“ susitikimą su tam tikru asmeniu, matant ir girdėjus visiškai kito žmogaus balsą.

Taip pat daugėja kalbomis pagrįstų padirbinių, sako Jasonas Corso, direktorius Stevenso dirbtinio intelekto institutas Stevenso technologijos institute, sakė interviu el. paštu. „Sukurti ištisas gilaus netikro teksto pastraipas pagal konkrečią darbotvarkę yra gana sunku, tačiau šiuolaikiniai gilios natūralios kalbos apdorojimo pažanga leidžia tai padaryti“, – pridūrė jis.

Kaip aptikti gilią klastotę

Nors giliųjų padirbinių aptikimo technologija vis dar tik kuriama, yra keletas būdų, kaip ją pastebėti, sakė Corso, pradedant nuo burnos.

„Burnos vidinės dalies išvaizdos kintamumas, kai kas nors kalba, yra labai didelis, todėl sunku įtikinamai animuoti“, - paaiškino Corso. „Tai galima padaryti, bet tai yra sunkiau nei likusi galvos dalis. Atkreipkite dėmesį, kaip gilios nostalgijos vaizdo įrašai neparodo nuotraukos gebėjimo pasakyti „aš tave myliu“ ar kitą frazę giliai suklastotos kūrybos metu. Norint tai padaryti, reikėtų atidaryti ir uždaryti burną, o tai labai sunku giliai klastočių kartai.

„Ghosting“ yra dar viena dovana, pridūrė Corso. Jei matote susiliejimą aplink galvos kraštus, tai yra „greito judesio arba ribotų šaltinio vaizdo taškų rezultatas. Ausis gali akimirksniu iš dalies išnykti arba plaukai gali tapti neryškūs ten, kur nesitikėtum“, – sakė jis.

Taip pat galite atkreipti dėmesį į spalvų skirtumus, kai bandote pastebėti gilų netikrą vaizdo įrašą, pvz., aštrią veido liniją, kurios vienoje pusėje yra tamsesnės spalvos, o kitoje – šviesesnės.

„Kompiuteriniai algoritmai dažnai gali aptikti šiuos iškraipymo modelius“, - sakė Shamiras. „Tačiau gilūs netikri algoritmai sparčiai tobulėja. Neišvengiamai reikės griežtų įstatymų, kurie apsaugotų nuo gilios klastotės ir žalos, kurią jie gali lengvai padaryti“.