Hvordan AI kan manipulere dine valg
Nøgle takeaways
- AI og maskinlæringsalgoritmer ser på menneskelig adfærd og kan lære at manipulere den, siger eksperter.
- Forskere har for nylig skabt en måde at finde og udnytte sårbarheder i den måde, folk træffer valg på ved hjælp af AI.
- Den mest sofistikerede sociale mediealgoritme lige nu er TikTok, siger en iagttager.
Kunstig intelligens (AI) og maskinlæringsalgoritmer lærer i stigende grad at påvirke brugernes adfærd, siger eksperter.
Forskere ved Australiens nationale videnskabelige agentur har for nylig skabt en måde at finde og udnytte sårbarheder i den måde, folk træffer valg ved hjælp af AI. Den seneste forskning er blot en af en bølge af AI-drevne systemer designet til at manipulere menneskelig beslutningstagning.
"Der er ingen ende på de mange måder, hvorpå AI allerede påvirker adfærd," Kentaro Toyama, professor ved University of Michigan School of Information og forfatter til Nørd kætteri: Redder social forandring fra teknologikulten, sagde i et e-mailinterview.
"Faktisk, hvis du nogensinde har lavet en Google-søgning og fulgt op på et link, blev du påvirket af et AI-system, der gættede dine interesser og returnerede resultater, som det troede var mest relevante for dig."
AI vs. Mennesker
I den australske forskning offentliggjort i en nyere papir, spillede menneskelige deltagere spil mod en computer i forskellige eksperimenter. Det første eksperiment fik deltagerne til at klikke på rød- eller blåfarvede kasser for at vinde penge.
AI var vellykket omkring 70 % af tiden, idet den lærte deltagerens valgmønstre og guidede dem hen imod et specifikt valg.
I et andet eksperiment så deltagerne på en skærm og trykkede på en knap, når de fik vist et bestemt symbol, eller trykkede ikke på det, når de blev tilbudt et andet. AI'en lærte at omarrangere symbolerne, så deltagerne lavede flere fejl.
Resultatet af eksperimenterne, konkluderede forskerne, var, at AI lærte af deltagernes svar. Maskinen identificerede og målrettede derefter sårbarheder i folks beslutningstagning. Faktisk kunne AI manipulere deltagere til at foretage bestemte handlinger.
Det faktum, at kunstig intelligens eller maskinlæring kan manipulere mennesker, burde ikke komme som nogen overraskelse, siger iagttagere.
"AI påvirker vores adfærd hver dag," sagde Tamara Schwartz, assisterende professor i cybersikkerhed og forretningsadministration ved York College of Pennsylvania, i et e-mailinterview.
"Vi hører hele tiden om algoritmerne i sociale medieapplikationer som Facebook eller Twitter. Disse algoritmer retter vores opmærksomhed mod relateret indhold og skaber 'ekkokammer'-effekten, som igen påvirker vores adfærd."
TikTok ser
Den mest sofistikerede sociale mediealgoritme lige nu er TikTok, sagde Schwartz. Appen analyserer, hvad du er interesseret i, hvor længe du ser noget, og hvor hurtigt du springer noget over, og forfiner derefter sine tilbud for at holde dig til at se.
"TikTok er meget mere vanedannende end andre platforme på grund af denne AI-algoritme, som forstår, hvad du kan lide, hvordan du lærer, og hvordan du vælger information," tilføjede hun. "Vi ved det, fordi den gennemsnitlige tid, brugere bruger på TikTok, er 52 minutter."
Manipulationen af menneskelig adfærd med kunstig intelligens kunne have positive anvendelser, argumenterede Chris Nicholson, administrerende direktør for AI-virksomheden Pathmind, i et e-mailinterview. Folkesundhedsagenturer kunne for eksempel bruge kunstig intelligens til at tilskynde folk til at træffe bedre beslutninger.
"Men sociale medier, videospilproducenter, annoncører og autoritære regimer leder efter måder at incitere folk til at træffe beslutninger, der ikke er i deres bedste interesse, og det vil give dem nye værktøjer til at gøre det," han tilføjet.
De etiske problemer med AI, der påvirker adfærd, er ofte af grad, sagde Toyama. AI tillader fokuseret annoncering, hvor individuelle præferencer og svagheder kan udnyttes.
"Det er for eksempel muligt for et AI-system at identificere folk, der forsøger at holde op med at ryge, og at peppe dem med fristende cigaretreklamer," tilføjede han.
Ikke alle er enige om, at AI-manipulation af menneskelig adfærd er problematisk. Klassisk psykologi og kunstig intelligens observerer begge data, påpegede Jason J. Corso, direktør for Stevens Institut for Kunstig Intelligens, i et e-mailinterview.
"Menneskevidenskabsmænd er sandsynligvis bedre til at generalisere observationer og destillere teorier om menneskelig adfærd, der kan være det mere bredt anvendelig, hvorimod AI-modellerne ville være mere modtagelige for at identificere problemspecifikke nuancer," Corso sagde.
"Ud fra et etisk synspunkt kan jeg ikke se forskel på disse."