АИ би могао да помогне да се заустави ширење лажних вести

click fraud protection
  • Нове технике вештачке интелигенције могле би да помогну у идентификацији и борби против дезинформација на мрежи.
  • Дубоке фајке генерисане вештачком интелигенцијом чине гласовне и видео преваре опаснијим.
  • Криптографија такође може да спречи лажне информације на вебу.
Хакер са капуљачом који користи паметни телефон.
Хакер шири лажне вести.

Игор Стевановић / 500пк / Гетти имагес

Дезинформације су све већи проблем на мрежи, али помоћ може бити на путу захваљујући вештачкој интелигенцији (АИ).

Истраживања сугеришу да технике машинског учења и блокчејн технологија могу да се боре против ширење лажних вести. Нови приступ омогућава креаторима садржаја да се усредсреде на борбу против дезинформација у областима у којима ће дезинформације највероватније изазвати значајну штету јавности. Стручњаци кажу проналажење ефикасних метода за борбу против дезинформација је од највеће важности.

„Ослањамо се на информације да бисмо доносили информисане одлуке“, Мањеет Реге, директор Центра за примењену вештачку интелигенцију при Универзитет Сент Томас, рекао је за Лифевире у интервјуу е-поштом. „Дакле, када потрошачи нису у стању да разликују праве и лажне информације, могли би бити подложнији доношењу лоших одлука. Са појавом друштвених медија, лажне вести могу брзо постати виралне и потенцијално могу довести до шокантних реакција јавности."

Да ли АИ ствара или проналази лажне вести?

Рад који су израдили истраживачи са Школе менаџмента Универзитета Бингхамтон саветовао је коришћење система машинског учења процени потенцијалну штету садржаја на своју публику и тачно укажу на најтеже преступнике. На пример, током врхунца пандемије ЦОВИД-19 идентификоване су лажне вести које промовишу непроверене третмане у односу на вакцине.

„Највероватније ће нам бити стало до лажних вести ако наносе штету која утиче на читаоце или публику. Ако људи схвате да нема штете, већа је вероватноћа да ће поделити дезинформације“, рекао је у саопштењу Ти Тран, професор менаџмент информационих система који је водио истраживање. „Штета долази од тога да ли се публика понаша у складу са тврдњама из дезинформација или ако због тога одбија одговарајућу акцију. Ако имамо систематски начин да идентификујемо где ће дезинформације нанети највећу штету, то ће нам помоћи да знамо где да се фокусирамо на ублажавање."

Како се вештачка интелигенција развија и постаје све софистициранија, појединцима постаје све теже да разликују шта је стварно, а шта није, Самеер Хајарнис, главни директор производа ОнеСпан, компанија за дигиталну верификацију, наведено је у е-поруци.

„На пример, деепфакес генерисане вештачком интелигенцијом чине гласовно и видео „пецање“ много опаснијим“, додао је он. „Криминалци који користе нападе социјалног инжењеринга су у порасту, а претња коју представљају деепфакес сада је широко распрострањена.

У а недавни инцидент, Мартин Луис, истакнути заговорник потрошачких финансија из Велике Британије, наизглед је подржао инвестициону прилику Елона Маска. Међутим, касније се открило да је снимак у ствари био ан Деепфаке генерисан од вештачке интелигенције, а испоставило се да је прилика за улагање била лажна превара, без стварне подршке Луиса или Маска.

Неки од садржаја генерисаног од вештачке интелигенције могу изгледати веома реалистично за човека, али се могу лако идентификовати као лажни помоћу АИ модела.

Многи приступи борби против дезинформација

Приступ Универзитета Бингхамтон није једини начин да се помогне у борби против лажних вести. Док АИ може да генерише лажни звук и видео снимци, може се користити и за откривање аутентичности, рекао је Реге.

„У ствари, неки од садржаја генерисаног вештачком интелигенцијом може изгледати веома реалистично за човека, али може бити идентификован као лажан прилично лако помоћу АИ модела“, додао је он.

Други метод је да се обезбеди доказ личности помоћу криптографије, стручњака за сајбер безбедност и ИЕЕЕ члана Иале Фок рекао је у интервјуу мејлом. Ако желите да снимите видео и ставите га на друштвене мреже, најбоље је да га кодирате помоћу јавни кључ.

„Одатле, видео или има кључ или га нема“, додао је он. „Ако има шифриран кључ, онда га је врло лако открити на било којој платформи чак и без употребе АИ. Може да ради на практично било ком уређају, у претраживачу итд. Ако се видео поставља на изабраном телефону, он би имао кључ и прошао би верификационе тестове."

Тастер за лажне вести на тастатури рачунара.
Лажне вести.

Петер Дазелеи / Гетти Имагес

Лажне вести су политички и културни проблем, као и техничко питање, Субраманиам Винцент, директор програма новинарства и медијске етике у Марккула центру за примењену етику у Универзитет Санта Клара, речено је у мејлу.

„Биће потребна сарадња и изградња консензуса међу актерима индустрије вештачке интелигенције и медијским компанијама, а такође и стварање новог помака ка демократској култури у политици и изборима узводно од технологије“, он додао је. „Све ће то олакшати борбу против неизбежног одбијања које стварају лоши актери када се АИ алати користе за откривање, означавање и заустављање дистрибуције лажних вести. АИ је моћан елемент, али не и једини, у већој збрци битке за демократију у Америци и другде."