Kan AI ons leren menselijker te zijn?

Belangrijkste leerpunten

  • Programma's voor kunstmatige intelligentie zoals Cogito proberen mensen empathie bij te brengen in de omgang met klanten.
  • Experts zijn het er niet over eens of een machine mensen empathie kan aanleren of dat het simpelweg datapunten vindt.
  • Sommige experts zijn ook bezorgd dat het aanleren van AI-empathie de mensheid van die emotie zou kunnen beroven.
Het gezicht van een vrouw bedekt met circuits op de computerkaart om kunstmatige intelligentie aan te geven.

John Lund / Getty Images

Stel je voor dat je in een callcenter werkt en een klant belt. Je antwoordt en meteen begint het slecht te gaan. De klant is boos en de spanningen lopen op.

Je begint dingen te zeggen waar je later misschien spijt van krijgt. Plots verschijnt er een bericht op uw computerscherm. "Empathy Cue - Denk na over hoe de klant zich voelt. Probeer te relativeren."

Het is geen echte persoon die je vertelt wat je moet doen. Het is een bericht van Cogito, een programma voor kunstmatige intelligentie ontworpen om werknemers te helpen zich in te leven in gefrustreerde bellers en de prestaties te verbeteren. Cogito is een van een groeiend aantal AI-programma's die mensen empathie proberen bij te brengen.

Er is hier een duidelijke ironie. Menselijke wetenschappers proberen al tientallen jaren om meer levensechte computers te maken. Nu vertellen de machines ons hoe we ons moeten gedragen. Maar kan software ons echt leren om empathischer te zijn? Het is een probleem dat ingrijpende gevolgen kan hebben naarmate kunstmatige intelligentie het dagelijks leven begint door te dringen.

AI bootst menselijk gedrag na

Vanuit technisch oogpunt is het duidelijk dat AI aanwijzingen kan oppikken over hoe mensen zich voelen en feedback kan geven.

"AI- en machine learning-systemen zijn erg goed in het vinden van patronen in data", Adam Poliak, een postdoctoraal onderzoeker in computerwetenschappen aan het Barnard College, in een e-mailinterview.

"Als we een AI veel voorbeelden van empathische tekst geven, kan de AI patronen en signalen ontdekken die empathie oproepen of demonstreren."

"AI is misschien geprogrammeerd om een ​​deel van het menselijke gedrag dat gepaard gaat met empathie af te breken en mensen eraan te herinneren ze uit te voeren, maar dat is geen empathie aanleren."

AI die menselijke reacties analyseert, kan helpen de groeiende kloof tussen mensen te overbruggen terwijl we digitaal communiceren, Bret Greenstein, een AI-expert bij Cognizant digitaal zakendoen, zei in een e-mailinterview.

"Het afgelopen jaar groeiden realtime, video, spraak en berichten sneller dan iemand zich had kunnen voorstellen, en daarmee kwamen enorme uitdagingen bij het creëren van echt empathische relaties zonder daadwerkelijk fysieke tijd met mensen door te brengen, "hij toegevoegd.

AI kan helpen bij het analyseren en beoordelen van kenmerken zoals toon en emotie in spraak, zei Greenstein. "Dit kan de persoon die communicatie ontvangt helpen om beter te begrijpen wat er wordt bedoeld, en helpt de persoon te 'spreken' door te laten zien hoe berichten kunnen worden geïnterpreteerd," voegde hij eraan toe.

Terwijl bedrijven zich haasten om AI-trainingssoftware zoals Cogito te verzilveren, blijft de vraag open of AI mensen empathie kan leren. En het antwoord heeft misschien net zoveel te maken met filosofie als met technologie.

Ilia Delio is theoloog aan de Villanova University wiens werk zich concentreert op het snijvlak van geloof en wetenschap. Ze gelooft dat AI empathie kan aanleren.

Een kind interactie met een robot.

wonry / Getty Images

Delio wees erop dat een team bij MIT heeft robots gebouwd die menselijke emoties zoals geluk, verdriet en mededogen kunnen nabootsen. "Terwijl de robotemoties zijn geprogrammeerd, kunnen de robots interageren met mensen en zo neurale patronen vaststellen of versterken", zei ze.

Kan een machine empathie begrijpen?

Experts definiëren ten minste drie vormen van empathie, die allemaal betrekking hebben op het vermogen om een ​​andere persoon te begrijpen en ermee om te gaan, zei Karla Erickson, socioloog aan Grinnell College in Iowa en auteur van het komende boek, Rommelige mensen: een sociologie van mens/machine-relaties, die onze relaties met technologie onderzoekt.

"Relateren is niet iets wat AI kan doen, en het is de basis voor empathie", zei Erickson in een e-mailinterview.

"AI is misschien geprogrammeerd om een ​​deel van het menselijke gedrag dat gepaard gaat met empathie af te breken en mensen eraan te herinneren ze uit te voeren, maar dat is geen empathie aanleren. Om te kunnen relateren, vooral in termen van empathie, moet de luisteraar over de nodige context beschikken om vertellen - hiermee bedoel ik dat het 'leven' van een AI geen verlies, verlangen, hoop, pijn of dood omvat."

Experts botsen echter over de vraag of AI ons kan leren hoe we ons moeten inleven. Een deel van het probleem is dat niet iedereen het eens is over wat 'empathie' of 'AI' betekent. De term kunstmatige intelligentie wordt veel gebruikt, maar het is momenteel niet het soort intelligentie dat we als mens beschouwen.

"Dit is puur technisch werk en ik heb niet de illusie dat de AI in kwestie zelf emoties heeft of echt emoties begrijpt."

"De 'empathie-aanwijzingen' hebben niets te maken met empathie," Michael Spezio, een professor in psychologie, neurowetenschappen en datawetenschap aan het Scripps College, in een e-mailinterview.

"Het zijn signalen van stemmen die menselijke beoordelaars hebben geclassificeerd als stemmen van mensen die geïrriteerd/geïrriteerd zijn. Dus het is gewoon menselijke expertise gebruiken in een wiskundig model en vervolgens beweren dat het model - gebouwd op menselijke expertise - intelligent is. Dergelijke beperkte machine learning-benaderingen worden vaak gehyped als AI zonder intelligent te zijn."

Aan het Rensselaer Polytechnisch Instituut, Selmer Bringsjords laboratorium bouwt wiskundige modellen van menselijke emoties. Het onderzoek is bedoeld om een ​​AI te creëren die hoog kan scoren op emotionele intelligentietests en deze toe te passen op mensen. Maar Bringsjord, een AI-expert, zegt dat elke les die AI doet onbedoeld is.

"Maar dit is puur technisch werk en ik heb niet de illusie dat de AI in kwestie zelf emoties heeft of echt emoties begrijpt", zei hij in een e-mailinterview.

Wat kan er fout gaan?

Terwijl bedrijven als Cogito een mooie toekomst zien voor AI-training van mensen, zijn andere waarnemers voorzichtiger.

Ondersteunend, een online geestelijke gezondheidsdienst, gebruikt AI om elke gebruiker te routeren, op basis van elke gedachte die ze uiten, in realtime, naar een onderwerpspecifieke peer-ondersteuningsgroep die dynamisch bijeenkomt voor gebruikers met soortgelijke problemen.

Een kind dat een robot knuffelt die een blij gezicht toont op zijn " gezichts"-scherm.

Zinkevych / Getty Images

Elke groep heeft een "superkrachtige" menselijke moderator die de op tekst gebaseerde chat veilig en troll-vrij houdt en kan komen, opnieuw via AI, relevante bronnen, aanbevelingen en verwijzingen rechtstreeks naar de groep gesprek. Met behulp van AI traint Supportiv zijn moderators om bedreven te zijn in het herkennen van de intensiteit van emotionele behoeften.

"Empathie is een spier die we bouwen", zei Zara Dana, een datawetenschapper bij Supportiv, in een e-mailinterview.

"Als we een kruk gaan gebruiken om te lopen, zullen onze spieren atrofiëren. Ik kan het niet helpen, maar vraag me af, zou een afhankelijke werknemer vertrouwen hebben als het AI-systeem op een dag niet online is? Kan ze haar werk goed doen? Wat zijn de langetermijneffecten voor de werknemers? Hoe zouden ze navigeren in complexe sociale situaties waarin de AI afwezig is?"

Zelfs als het gebruik van AI om empathie aan te leren werkt, wat gebeurt er dan als we te veel op AI gaan vertrouwen om emoties te trainen? Een mogelijk nadeel is dat mensen meer gehecht kunnen raken aan robots dan aan andere mensen, omdat robots niet tegen hun programma kunnen kiezen, benadrukt Delio.

"De menselijke capaciteit voor vrije wil plaatst menselijk handelen in een meer dubbelzinnige positie", zei Delio. "Een persoon kan de ene dag medelevend zijn en de volgende meedogenloos; een robot zal consequent meelevend blijven, tenzij getraind om anders te doen."

Er kan veel misgaan als AI mensen leert hoe ze zich als mensen moeten gedragen, zeggen experts.

"We zijn geëvolueerd om sociale dieren te zijn, en onze empathie staat centraal in ons vermogen om contact te maken met anderen en om te geven om collectieven waartoe we behoren."

"Zonder menselijk toezicht zou de student iets absoluut geks kunnen leren," zei Bringsjord.

"Toon en toonhoogte zijn slechts gedragscorrelaten, zonder enige inhoud. Dollars naar donuts mijn stem tijdens het lesgeven in de klas zou door velen worden gelezen... als een indicatie dat ik van streek ben, terwijl ik in werkelijkheid gewoon gepassioneerd ben en in het minst behoefte heb aan empathie."

Als AI-training van mensen floreert, gaan we er misschien op vertrouwen. En dat is niet per se een goede zaak.

"Deze training devalueert menselijke vaardigheden, die aanzienlijk zijn, en verschuift de aandacht naar AI alsof zij degenen zijn met expertise", zei Erickson. "We zijn geëvolueerd om sociale dieren te zijn, en onze empathie staat centraal in ons vermogen om contact te maken met anderen en om te geven om collectieven waartoe we behoren."