Лако је лажирање видео записа, дубока носталгија

Кључне Такеаваис

  • Дееп Носталгиа је нови програм који вам омогућава да анимирате старе фотографије.
  • Технологија показује колико је лако направити видео записе људи који раде ствари које заправо нису радили у стварном животу.
  • Дубока лажна технологија је већ толико софистицирана да је тешко рећи да ли је видео стваран или компјутерски генерисан, каже један стручњак.
људско лице са 3д мрежом и знаковима препознавања
имагинима / Гетти Имагес

Пазите на нови софтвер који може да створи такозване "дубоке лажне", у којима се могу симулирати видео снимци стварних људи, упозоравају стручњаци.

Дубока носталгија, које је објавила компанија Моје наслеђе, је у тренду на друштвеним мрежама, а корисници реанимирају све, од познатих композитора до мртвих рођака. Софтвер изазива различите реакције, при чему су неки људи одушевљени креацијама, а други сматрајући их језивим. Технологија показује колико је лако направити видео записе људи који раде ствари које заправо нису радили у стварном животу.

„Деепфаке технологија постаје све софистициранија и опаснија“, Аарон Лавсон, помоћник директора СРИ Интернатионал-а

Лабораторија за говорну технологију и истраживање (СТАР)., рекао је у интервјуу мејлом. „Ово је делимично због природе вештачке интелигенције. Тамо где 'традиционална' технологија захтева људско време и енергију за побољшање, АИ може да учи од себе.

„Али способност вештачке интелигенције да се развија је мач са две оштрице“, наставио је Лосон. „Ако је вештачка интелигенција створена да уради нешто добронамерно, одлично. Али када је вештачка интелигенција дизајнирана за нешто злонамерно попут дубоких лажирања, опасност је без преседана."

Софтвер оживљава фотографије

Генеалошка веб локација МиХеритаге представила је механизам за анимацију прошлог месеца. Технологија, позната као Дееп Носталгиа, омогућава корисницима да анимирају фотографије путем веб странице МиХеритаге. Компанија под називом Д-ИД дизајнирала је алгоритме за МиХеритаге који дигитално рекреирају кретање људских лица. Софтвер примењује покрете на фотографије и модификује изразе лица да се крећу као што то обично чине људска лица, наводи се на веб страници МиХеритаге.

Дубока носталгија показује да дубоко лажна технологија постаје приступачнија, рекао је Лиор Шамир, професор рачунарства на Државном универзитету у Канзасу, у интервјуу е-поштом. Брзо напредује и елиминише чак и суптилне разлике између лажног и стварног видеа и звука.

„Такође је постигнут значајан напредак ка дубоком лажирању у реалном времену, што значи да се уверљиви дубоки лажни видео снимци генеришу у време видео комуникације“, рекао је Шамир. „На пример, можете имати Зоом састанак са одређеном особом, док видите и чујете глас сасвим друге особе.

Такође је све већи број дубоких лажњака заснованих на језику, Џејсон Корсо, директор Стивенсов институт за вештачку интелигенцију на Стевенс Институте оф Тецхнологи, речено је у интервјуу е-поштом. „Генерисање читавих пасуса дубоког лажног текста према одређеној агенди је прилично тешко, али савремени напредак у дубокој обради природног језика то чини могућим“, додао је он.

Како открити дубоки лажњак

Иако је технологија за откривање дубоког лажирања још увек у почетној фази, постоји неколико начина на које можете да је уочите, рекао је Корсо, почевши од уста.

„Варијабилност изгледа унутрашњости уста када неко говори је веома велика, што отежава убедљиво анимирање“, објаснио је Корсо. „Може, али је теже од остатка главе. Обратите пажњу на то како видео снимци Дубоке носталгије не показују способност фотографије да каже 'Волим те' или неку другу фразу током дубоке лажне креације. То би захтевало отварање и затварање уста, што је веома тешко за дубоку лажну генерацију."

Гхостинг је још један поклон, додао је Корсо. Ако видите замућење око ивица главе, то је резултат „брзог покрета или ограничених пиксела доступних на изворној слици. Уво би на тренутак могло делимично нестати или би коса могла постати мутна тамо где не бисте очекивали", рекао је он.

Такође можете пазити на варијације у боји када покушавате да уочите дубоки лажни видео, као што је оштра линија преко лица, са тамнијим бојама на једној страни и светлијим на другој.

„Компјутерски алгоритми често могу открити ове обрасце изобличења“, рекао је Шамир. „Али дубоки лажни алгоритми брзо напредују. Неизбежно је да ће бити потребни строги закони да би се заштитили од дубоког лажирања и штете коју они лако могу проузроковати."