Hvorfor ny profileringssoftware vækker bekymringer om privatlivets fred

Nøgle takeaways

  • Software, der bruger kunstig intelligens til at profilere folk, vækker bekymringer om privatlivets fred.
  • Cryfe kombinerer adfærdsanalyseteknikker med kunstig intelligens.
  • Det kinesiske firma Alibaba mødte for nylig kritik efter angiveligt at have sagt, at dets software kunne opdage uighurer og andre etniske minoriteter.
AI (kunstig intelligens) og ansigtsgenkendelseskoncept, der scanner ansigter i en menneskemængde.
KENGKAT / Getty Images

Ny software drevet af kunstig intelligens, der er beregnet til, at arbejdsgivere kan profilere deres medarbejdere, rejser bekymringer om privatlivets fred.

En ny softwareplatform, kaldet Cryfe, kombinerer adfærdsanalyseteknikker med kunstig intelligens. Udvikleren hævder, at softwaren ved at analysere små spor kan afsløre folks hensigter under interviews. Men nogle iagttagere siger, at Cryfe og andre typer software, der analyserer adfærd, kan invadere privatlivets fred.

"Virksomheder stoler i stigende grad på AI til profilering," AI-ekspert Vaclav Vincale sagde i et e-mailinterview. "Men selv de mennesker, der koder disse algoritmer, meget mindre en kundesupportperson, du når på telefonen, kunne ikke fortælle dig, hvorfor de kommer med en given anbefaling."

Mere end ord

Cryfe blev udviklet af et schweizisk firma, hvis medarbejdere blev trænet af FBI i profileringsteknikker. "Cryfe, i al interpersonel kommunikation, lytter ikke kun til ord, men identificerer andre signaler udsendt af mennesket. såsom følelser, mikroudtryk og alle gestus," sagde Caroline Matteucci, grundlæggeren af ​​Cryfe, i et e-mailinterview.

"Under rekruttering giver dette os for eksempel mulighed for at gå og lede efter vores samtalepartners rigtige personlighed."

Matteucci sagde, at brugernes privatliv er beskyttet, fordi virksomheden er gennemsigtig omkring, hvordan dens software fungerer. "Brugeren skal, før han kan bruge platformen, acceptere de generelle betingelser," sagde hun.

"Der er det præciseret, at brugeren under ingen omstændigheder må indsende et interview til analyse uden at have modtaget skriftligt samtykke fra samtalepartneren."

Cryfe er ikke den eneste AI-drevne software, der foregiver at analysere menneskelig adfærd. Der er også Humantic, som hævder at analysere forbrugeradfærd. "Humantics banebrydende teknologi forudsiger alles adfærd, uden at de nogensinde behøver at tage en personlighedstest," ifølge virksomhedens hjemmeside.

Overlejringer af kunstig intelligens på mennesker i et møde.
metamorworks / Getty Images

Virksomheden hævder at bruge AI til at oprette ansøgeres psykologiske profiler baseret på de ord, de bruger i CV'er, følgebreve, LinkedIn-profiler og enhver anden tekst, de indsender.

Adfærdssoftware har tidligere løbet ind i juridiske udfordringer. I 2019, Bloomberg lov rapporteret at Equal Employment Opportunity Commission (EEOC) undersøgte sager om påstået ulovlig diskrimination på grund af algoritme-assisteret, HR-relaterede beslutninger.

"Det hele skal løses, fordi fremtiden for rekruttering er AI," sagde advokat Bradford Newman til Bloomberg.

Nogle observatører har problemer med virksomheder, der bruger adfærdssporingssoftware, fordi den ikke er nøjagtig nok. I et interview fortalte Nigel Duffy, global leder af kunstig intelligens hos det professionelle servicefirma EY, Informationsuge at han er plaget af software, der bruger sociale medier quizzer og affektdetektion.

"Jeg tror, ​​der er noget virkelig overbevisende litteratur om potentialet for affektdetektion, men min forståelse er, at den måde, der ofte implementeres på, er ret naiv," sagde han.

"Folk drager slutninger om, at videnskaben ikke rigtig støtter [såsom] at beslutte, at nogen er en potentiel god medarbejder, fordi de smiler meget eller beslutter, at nogen kan lide dine produkter, fordi de smiler en masse."

Kinesiske virksomheder profilerer angiveligt minoriteter

Adfærdssporing kunne også have mere skumle formål, siger nogle menneskerettighedsgrupper. I Kina vakte online markedspladsgiganten Alibaba for nylig opsigt efter det angiveligt hævdet at dens software kunne opdage uighurer og andre etniske minoriteter.

New York Times rapporterede, at virksomhedens cloud computing-virksomhed havde software, der kunne scanne billeder og videoer.

"Men selv de mennesker, der koder disse algoritmer... kunne ikke fortælle dig, hvorfor de kommer med en given anbefaling."

Washington Post også for nylig rapporteret at Huawei, et andet kinesisk teknologifirma, havde testet software, der kunne advare retshåndhævelsen, når dets overvågningskameraer opdagede uighuriske ansigter.

En 2018 patentansøgning fra Huawei angiveligt hævdet at "identifikation af fodgængeregenskaber er meget vigtig" i ansigtsgenkendelsesteknologi. "Målobjektets egenskaber kan være køn (mand, kvinde), alder (såsom teenagere, midaldrende, gamle) [eller] race (Han, Uyghur)," står der i ansøgningen.

En talsmand for Huawei fortalte CNN Business at etnicitetsidentifikationsfunktionen "aldrig skulle være blevet en del af applikationen."

Den spirende brug af kunstig intelligens til at sortere gennem enorme mængder data vil nødvendigvis give anledning til bekymringer om privatlivets fred. Du ved måske aldrig, hvem eller hvad der analyserer dig, næste gang du skal til en jobsamtale.