Kan AI lære os at være mere menneskelige?
Nøgle takeaways
- Kunstig intelligens programmer som Cogito forsøger at lære mennesker empati i omgangen med kunder.
- Eksperter er uenige om, hvorvidt det er muligt for en maskine at lære folk empati, eller om den blot er at finde datapunkter.
- Nogle eksperter er også bekymrede for, at undervisning i AI-empati kan fratage menneskeheden den følelse.
Forestil dig, at du arbejder i et callcenter, og en kunde ringer. Du svarer, og med det samme begynder det at gå dårligt. Kunden er vred, og spændingerne stiger.
Du begynder at sige ting, du måske senere vil fortryde. Pludselig vises en besked på din computerskærm. "Empathy Cue - Tænk over, hvordan kunden har det. Prøv at relatere."
Det er ikke en rigtig person, der fortæller dig, hvad du skal gøre. Det er en besked fra Cogito, et kunstig intelligens-program designet til at hjælpe arbejdere med at få empati med frustrerede opkaldere og øge ydeevnen. Cogito er et af et voksende antal AI-programmer, der forsøger at lære mennesker empati.
Der er en åbenlys ironi her. Menneskelige videnskabsmænd har i årtier forsøgt at lave mere naturtro computere. Nu fortæller maskinerne os, hvordan vi skal opføre os. Men kan software virkelig lære os at være mere empatiske? Det er et problem, der kan have dybtgående konsekvenser, da kunstig intelligens begynder at gennemsyre dagligdagen.
AI efterligner menneskelig adfærd
Fra et teknisk synspunkt er det klart, at AI kan opfange spor om, hvordan mennesker har det og give feedback.
"AI og maskinlæringssystemer er meget gode til at finde mønstre i data," Adam Poliak, en postdoc-stipendiat i datalogi ved Barnard College, sagde i et e-mailinterview.
"Hvis vi giver en AI masser af eksempler på empatisk tekst, kan AI'en opdage mønstre og signaler, der fremkalder eller demonstrerer empati."
"AI kan være programmeret til at nedbryde nogle af de menneskelige adfærd, der ledsager empati og minde mennesker om at udføre dem, men det er ikke at lære empati."
AI, der analyserer menneskelige reaktioner, kan hjælpe med at bygge bro over den voksende kløft mellem mennesker, når vi kommunikerer digitalt, Bret Greenstein, en AI-ekspert hos Cognizant Digital Business, sagde i et e-mailinterview.
"I løbet af det sidste år voksede realtid, video, stemme og beskeder hurtigere, end nogen kunne have forestillet sig, og med det kom der store udfordringer med at skabe ægte empatiske relationer uden egentlig at bruge fysisk tid sammen med mennesker," han tilføjet.
AI kan hjælpe med at analysere og vurdere karakteristika som tone og følelser i tale, sagde Greenstein. "Dette kan hjælpe den person, der modtager kommunikation, til bedre at forstå, hvad der var meningen, og hjælper den person, der taler" ved at vise, hvordan beskeder kan fortolkes," tilføjede han.
Mens virksomheder skynder sig at tjene penge på AI-træningssoftware som Cogito, forbliver spørgsmålet om, hvorvidt AI kan lære mennesker empati, åbent. Og svaret kan have lige så meget at gøre med filosofi som teknologi.
Ilia Delio er en teolog ved Villanova University, hvis arbejde centrerer sig om krydsfeltet mellem tro og videnskab. Hun tror på, at AI kan lære empati.
Delio påpegede, at en team på MIT har bygget robotter, der kan efterligne menneskelige følelser som glæde, tristhed og medfølelse. "Mens robotfølelserne er programmeret, kan robotterne interagere med mennesker og dermed etablere eller forstærke neurale mønstre," sagde hun.
Kan en maskine forstå empati?
Eksperter definerer mindst tre former for empati, som alle involverer evnen til at forstå og forholde sig til en anden person, sagde Karla Erickson, en sociolog ved Grinnell College i Iowa og forfatter til den kommende bog, Messy Humans: A Sociology of Human/Machine Relations, som udforsker vores forhold til teknologi.
"At forholde sig er ikke noget AI kan, og det er grundlaget for empati," sagde Erickson i et e-mailinterview.
"AI kan være programmeret til at nedbryde nogle af de menneskelige adfærd, der ledsager empati, og minde mennesker om at udføre dem, men det er ikke at lære empati. At forholde sig, især med hensyn til empati, ville kræve, at lytteren har den nødvendige kontekst til relatere – med dette mener jeg, at 'livet' for en AI ikke inkluderer tab, længsel, håb, smerte eller død."
Eksperter støder dog sammen om, hvorvidt AI kan lære os at have empati. En del af problemet er, at ikke alle er enige om, hvad "empati" eller "AI" overhovedet betyder. Begrebet kunstig intelligens bliver smidt meget rundt, men det er i øjeblikket ikke den slags intelligens, vi tænker på som mennesker.
"Dette er rent ingeniørarbejde, og jeg er ikke i sådan en illusion om, at den pågældende AI selv har følelser eller virkelig forstår følelser."
"De "empatiske signaler" har intet med empati at gøre," Michael Spezio, en professor i psykologi, neurovidenskab og datavidenskab ved Scripps College, sagde i et e-mailinterview.
"De er signaler fra stemmer, som menneskelige bedømmere har klassificeret som værende stemmer fra mennesker, der er irriterede/irriterede. Så det er bare at bruge menneskelig ekspertise i en matematisk model og så hævde, at modellen – bygget på menneskelig ekspertise – er intelligent. Begrænsede maskinlæringstilgange som denne hypes ofte som kunstig intelligens uden at være intelligente."
På Rensselaer Polytekniske Institut, Selmer Bringsjords laboratorium bygger matematiske modeller af menneskelige følelser. Forskningen er beregnet til at skabe en AI, der kan score højt på følelsesmæssige intelligenstests og anvende dem på mennesker. Men Bringsjord, en AI-ekspert, siger, at enhver undervisning i AI er utilsigtet.
"Men dette er rent ingeniørarbejde, og jeg er ikke i en sådan illusion om, at den pågældende AI i sig selv har følelser eller virkelig forstår følelser," sagde han i et e-mailinterview.
Hvad kunne gå galt?
Mens virksomheder som Cogito ser en lys fremtid med AI-træning af mennesker, er andre iagttagere mere forsigtige.
Supportiv, en online mental sundhedstjeneste, bruger AI til at dirigere hver bruger, baseret på en enkelt tanke, de udtrykker, i realtid til en emnespecifik peer-støttegruppe, der dynamisk mødes for brugere med lignende problemer.
Hver gruppe har en "superdrevet" menneskelig moderator, som holder den tekstbaserede chat sikker og troldefri og kan dukker, igen gennem AI, relevante ressourcer, anbefalinger og henvisninger direkte ind i gruppen samtale. Ved hjælp af AI træner Supportiv sine moderatorer til at være dygtige til at opdage intensiteten af følelsesmæssige behov.
"Empati er en muskel, vi bygger," sagde Zara Dana, en dataforsker hos Supportiv, i et e-mailinterview.
"Hvis vi begynder at bruge en krykke til at gå, vil vores muskler atrofiere. Jeg kan ikke lade være med at spekulere på, ville en afhængig arbejdstager føle sig sikker, hvis AI-systemet ikke er online en dag? Er hun i stand til at udføre sit arbejde effektivt? Hvad er de langsigtede virkninger for arbejderne? Hvordan ville de navigere i komplekse sociale situationer, hvor AI er fraværende?"
Selvom brugen af AI til at lære empati virker, hvad sker der, når vi begynder at stole for meget på AI for at træne følelser? En mulig ulempe er, at mennesker kan blive mere knyttet til robotter end til andre mennesker, fordi robotter ikke kan vælge imod deres program, påpegede Delio.
"Den menneskelige evne til fri vilje placerer menneskelig handlefrihed i en mere tvetydig position," sagde Delio. "En person kan være medfølende den ene dag og hensynsløs den næste; en robot vil forblive konsekvent medfølende, medmindre den er trænet til at gøre andet."
Der er meget, der kan gå galt, hvis AI lærer mennesker, hvordan man opfører sig som mennesker, siger eksperter.
"Vi har udviklet os til at være sociale dyr, og vores empati er central for vores evne til at forbinde os med andre og bekymre os om de kollektiver, som vi tilhører."
"Uden menneskeligt tilsyn vil eleven måske lære noget absolut nøddeagtigt," sagde Bringsjord.
"Stemmetone og tonehøjde er blot adfærdskorrelater uden noget indhold. Dollars til min stemme, mens jeg underviser i klasseværelset, ville blive læst af mange...som tegn på, at jeg er ked af det, mens jeg i virkeligheden bare er lidenskabelig og i det mindste har brug for empati."
Hvis AI-træning af mennesker blomstrer, kan vi komme til at stole på det. Og det er ikke nødvendigvis en god ting.
"Denne træning devaluerer menneskelige færdigheder, som er betydelige, og flytter opmærksomheden mod AI, som om det var dem med ekspertise," sagde Erickson. "Vi har udviklet os til at være sociale dyr, og vores empati er central for vores evne til at forbinde os med andre og bekymre os om de kollektiver, som vi tilhører."