Како АИ може да манипулише вашим изборима
Кључне Такеаваис
- Алгоритми вештачке интелигенције и машинског учења прате људско понашање и могу да науче да манипулишу њиме, кажу стручњаци.
- Истраживачи су недавно створили начин да пронађу и искористе рањивости у начинима на који људи доносе одлуке користећи АИ.
- Најсофистициранији алгоритам друштвених медија тренутно је ТикТок, каже један посматрач.
Алгоритми вештачке интелигенције (АИ) и машинског учења све више уче како да утичу на понашање корисника, кажу стручњаци.
Истраживачи аустралијске националне агенције за науку недавно су створили начин да пронађу и искористе рањивости у начинима на које људи доносе одлуке користећи АИ. Најновије истраживање је само једно од таласа система вођених вештачком интелигенцијом дизајнираних да манипулишу људским доношењем одлука.
„Нема краја многим начинима на које вештачка интелигенција већ утиче на понашање“, рекао је Кентаро Тојама, професор на Школа информација Универзитета у Мичигену и аутор Штреберска јерес: Спасавање друштвених промена од култа технологије, рекао је у интервјуу мејлом.
„У ствари, ако сте икада претраживали на Гоогле-у и пратили везу, на вас је утицао систем вештачке интелигенције који је погодио ваша интересовања и вратио резултате за које је мислио да су најрелевантнији за вас.
АИ вс. Људи
У аустралијском истраживању објављеном у а новији рад, људски учесници су играли игрице против рачунара у разним експериментима. У првом експерименту учесници су кликнули на кутије црвене или плаве боје да би освојили новац.
АИ је био успешан око 70% времена, учећи узорке избора учесника и усмеравајући их ка одређеном избору.
У другом експерименту, учесници су гледали екран и притискали дугме када им је приказан одређени симбол, или га нису притискали када им је понуђен други. АИ је научио да преуређује симболе, тако да су учесници правили више грешака.
Резултат експеримената, закључили су истраживачи, био је да је АИ научио из одговора учесника. Машина је затим идентификовала и циљала рањивости у доношењу одлука људи. У ствари, АИ би могла да манипулише учесницима да изврше одређене акције.
Чињеница да АИ или машинско учење могу да манипулишу људима не би требало да буде изненађење, кажу посматрачи.
„АИ свакодневно утиче на наше понашање“, рекла је Тамара Шварц, доцентка за сајбер безбедност и пословну администрацију на Јорк колеџу у Пенсилванији, у интервјуу е-поштом.
„Стално слушамо о алгоритмима у апликацијама друштвених медија попут Фејсбука или Твитера. Ови алгоритми усмеравају нашу пажњу на сродни садржај и стварају ефекат 'ехо коморе', што заузврат утиче на наше понашање."
ТикТок гледа
Најсофистициранији алгоритам друштвених медија тренутно је ТикТок, рекао је Шварц. Апликација анализира шта вас занима, колико дуго нешто гледате и колико брзо нешто прескачете, а затим прерађује своје понуде како бисте наставили да гледате.
„ТикТок ствара много већу зависност од других платформи због овог АИ алгоритма, који разуме шта волите, како учите и како бирате информације“, додала је она. „Знамо то јер је просечно време које корисници проведу на ТикТок-у 52 минута.
Манипулација људским понашањем помоћу вештачке интелигенције могла би да има позитивне користи, тврди Крис Николсон, извршни директор компаније АИ компаније Патхминд, у интервјуу е-поштом. Агенције за јавно здравље, на пример, могле би да користе вештачку интелигенцију да подстакну људе да доносе боље одлуке.
„Међутим, друштвени медији, произвођачи видео игрица, оглашивачи и ауторитарни режими траже начине да подстакну људи да доносе одлуке које нису у њиховом најбољем интересу, а то ће им дати нове алате за то“, рекао је он додао је.
Етичка питања везана за понашање вештачке интелигенције често су од степена, рекао је Тојама. АИ омогућава фокусирано оглашавање у којем се могу искористити индивидуалне преференције и слабости.
„Могуће је, на пример, да систем вештачке интелигенције идентификује људе који покушавају да престану да пуше и да их зачини примамљивим рекламама за цигарете“, додао је он.
Не слажу се сви да је АИ манипулација људским понашањем проблематична. Класична психологија и АИ посматрају податке, истакао је Џејсон Ј. Корсо, директор Стивенсов институт за вештачку интелигенцију, у интервјуу е-поштом.
„Људски научници су вероватно бољи у генерализацији запажања и дестилацији теорија људског понашања које би могло бити шире применљиви, док би АИ модели били подложнији идентификацији нијанси специфичних за проблем", Цорсо рекао.
„Са етичке тачке гледишта, не видим разлику између ових.