Ево како АИ-поверед Деепфаке аудио може да вас превари

  • Ново истраживање показује да аудио факе може заварати већину људи.
  • Дубоки фајкови могу дестабилизовати изборе и довести кориснике до неповерења у чињенице.
  • Неки деепфакес се користе за аудио књиге и за слање персонализованих белешки.
Неко слуша звук на свом телефону користећи слушалице док је у возу.
Слушање звука.

Фласхпоп / Гетти Имагес

Не можете веровати речима које чујете, захваљујући напретку у вештачкој интелигенцији (АИ).

А Недавна студија показује да деепфакед аудио може преварити људске слушаоце у приближно 25 процената времена. То је део растућег таласа Дубоке фајке генерисане вештачком интелигенцијом изазивајући забринутост око разликовања чињеница од фикције.

"Некада је било да је 'видети веровати'" Насир Мемон, ИЕЕЕ стипендиста и професор рачунарских наука и инжењерства на НИУ Тандон, рекао је за Лифевире у интервјуу е-поштом. „Сада, са деепфакес, то више није тачно. Појам идентитета је важан у друштву. Идентитет је неопходан за комуникацију и сарадњу са другим људима, а идентитет повезујемо са аудио функцијама."

Деепфакес Тхат Фоол Усерс

Очигледно је да је све теже открити аудио фајке. У студији спроведеној на Универзитетском колеџу у Лондону, преко 500 волонтера је прегледало комбинацију дубоко лажних и аутентичних гласова на енглеском и мандаринском. Неки учесници су претходно били изложени дубоко лажираним узорцима гласа како би помогли у идентификацији. У просеку, учесници су тачно идентификовали деепфакес 73 процента времена, без обзира на њихову обуку.

„Аудио деепфакес може бити веома убедљив и већ се побољшава сваким даном“, Шон Сурбер, Виши директор техничког управљања рачунима у фирми за сајбер безбедност Танијум речено у мејлу. „Како технологија вештачке интелигенције буде напредовала, ова цифра ће вероватно расти, повећавајући потенцијалне ризике повезане са лажним лажним представљањем.

Сајбер криминалци могу да користе дубоки лажни звук за креирање фиктивних идентитета којима је тешко ући у траг, Стјуарт Велс, стручњак за верификацију идентитета и главни технолошки службеник у Јумио Цорпоратион, речено је путем мејла. Такође, криминалац може да изврши преузимање налога угрожавајући безбедност банковних рачуна, налога пословне е-поште и осталог што припада постојећим корисницима.

„За несуђену жртву, дубоки лажни звук може бити тешко открити, али када се анализира помоћу машине моделе учења дизајниране за ту сврху, далеко је од тога да се не разликује од говора који су генерисали људи", додао је он. „Кроз процену анатомије која ствара говор, могуће је идентификовати порекло, било људско или машинско.

Још једна опасност од аудио лажирања је политичко мешање кроз дестабилизацију или избацивање избора из колосека, приметио је Мемон.

Аудио деепфакес може бити веома убедљив и већ се побољшава сваким даном.

„Никон је у суштини опозван на основу гласовних снимака, на пример“, додао је он. "То су били прави снимци, али можете замислити шта би било могуће са деепфаке звуком."

Деепфаке Аудио нас можда неће осудити

Нису сви дубоки лажни звукови нужно лошенамерни. На пример, можете га користити „да снимите себе како говорите нешто попут 'Волим те' вољеној особи као поклон изненађења," Мац Стеер, власник технолошке компаније Симифи речено у мејлу.

Гоогле Плаи и Аппле Боокс користе Гласови генерисани вештачком интелигенцијом за њихов аудио садржај. Издавачи на Гоогле Плаи-у могу да праве аудио-књиге са аутоматским нарацијом све док поседују права на аудио-књигу и одлуче за аутоматску нарацију.

Проблем дубоко лажног звука ће расти, укључујући и политичку комуникацију, Јован В. Павлик, професор новинарства и медијских студија на Универзитет Рутгерс, предвиђено у е-поруци. Рекао је да ће деепфаке аудио вероватно постати уобичајен на мрежи, посебно на друштвеним и интерактивним медијима.

Крупни план некога ко држи паметни телефон који приказује долазни непознати позив.
Долазни непознати позив.

Цалвин Цхан Ваи Менг / Гетти Имагес

„Људи ће морати да задрже стално критичку перспективу“, додао је он. „И кад год наиђу на нешто сумњиво, биће неопходно претпоставити да је то деепфаке до његова аутентичност се може проверити одвојено и независно, обично преко поузданих извора вести."

Али постоји нада да нас дубоки лажни звук можда неће осудити на будућност лажних информација. Људи можда неће аутоматски поверовати дубоком лажном звуку о политичком актеру који фаворизују, посебно ако долази из дискредитованог извора, Субраманиам Винцент, директор за новинарство и медијску етику у Марккула Центру за примењену етику у Универзитет Санта Клара, наведено у е-поруци. Рекао је да чак и када се деепфакес прошире, они могу бити само на интернет форумима који одговарају наративу.

„Прави судови или друге процедуралне институције засноване на чињеницама које раде по правилима и споријим брзинама Операције су релативно изолованије у свом доношењу одлука од партиципативне гомиле на мрежи“, он додао је. „Укратко, очекујте да се трка у наоружању мачке и миша и битке засноване на дубоком лажирању наставе, са добрим глумцима који утичу на дистрибуцију, а лоши глумци покушавају да их придобију.