Kodėl nauja profiliavimo programinė įranga kelia susirūpinimą dėl privatumo

Key Takeaways

  • Programinė įranga, kuri naudoja dirbtinį intelektą žmonių profiliavimui, kelia susirūpinimą dėl privatumo.
  • Cryfe sujungia elgesio analizės metodus su dirbtiniu intelektu.
  • Kinijos bendrovė „Alibaba“ neseniai sulaukė kritikos po to, kai pranešė, kad jos programinė įranga gali aptikti uigūrus ir kitas etnines mažumas.
AI (dirbtinis intelektas) ir veido atpažinimo koncepcija nuskaito veidus minioje.
KENGKAT / Getty Images

Nauja dirbtinio intelekto valdoma programinė įranga, skirta darbdaviams profiliuoti savo darbuotojus, kelia susirūpinimą dėl privatumo.

Viena nauja programinės įrangos platforma, vadinamas Cryfe, derina elgesio analizės metodus su dirbtiniu intelektu. Kūrėjas teigia, kad analizuodama smulkmenas, programinė įranga gali atskleisti žmonių ketinimus pokalbių metu. Tačiau kai kurie stebėtojai teigia, kad „Cryfe“ ir kitos elgseną analizuojančios programinės įrangos rūšys gali pažeisti privatumą.

„Įmonės vis labiau pasikliauja AI profiliuodamos“, AI ekspertas Vaclavas Vincale sakė interviu elektroniniu paštu. "Tačiau net žmonės, kurie koduoja šiuos algoritmus, o tuo labiau klientų aptarnavimo asmuo, su kuriuo susisiekiate telefonu, negalėjo pasakyti, kodėl jie pateikia kokią nors rekomendaciją."

Daugiau nei žodžiai

„Cryfe“ sukūrė Šveicarijos įmonė, kurios darbuotojus FTB apmokė profiliavimo metodų. „Cryfe'as, bendraudamas tarpasmeniškai, ne tik klauso žodžių, bet ir atpažįsta kitus žmogaus skleidžiamus signalus. pavyzdžiui, emocijos, mikroraiškos ir visi gestai“, – interviu el. paštu sakė Caroline Matteucci, Cryfe įkūrėja.

„Pavyzdžiui, verbuojant tai leidžia eiti ir ieškoti tikrosios pašnekovo asmenybės.

Matteucci teigė, kad vartotojų privatumas yra apsaugotas, nes įmonė aiškiai supranta, kaip veikia jos programinė įranga. „Vartotojas, prieš pradėdamas naudotis platforma, turi sutikti su bendromis sąlygomis“, – sakė ji.

„Ten nurodyta, kad vartotojas jokiu būdu negali pateikti pokalbio analizei, negavęs raštiško pašnekovo sutikimo.

„Cryfe“ nėra vienintelė AI pagrįsta programinė įranga, skirta analizuoti žmogaus elgesį. Taip pat yra „Humantic“, kuri teigia analizuojanti vartotojų elgesį. „Humantic kelią laužanti technologija nuspėja kiekvieno elgesį ir jiems niekada nereikės atlikti asmenybės testo“, – teigia mokslininkas. įmonės svetainė.

Dirbtinis intelektas perdengia žmones susitikime.
metamorworks / Getty Images

Bendrovė teigia, kad naudoja dirbtinį intelektą, kad sukurtų kandidatų psichologinius profilius pagal žodžius, kuriuos jie naudoja gyvenimo aprašymuose, motyvaciniuose laiškuose, „LinkedIn“ profiliuose ir bet kuriame kitame jų pateiktame tekste.

Elgesio programinė įranga praeityje susidūrė su teisiniais iššūkiais. 2019 m. Bloombergo įstatymas pranešė kad Lygių įsidarbinimo galimybių komisija (EEOC) išnagrinėjo tariamos neteisėtos diskriminacijos dėl algoritmais remiamų su žmogiškųjų išteklių susijusių sprendimų atvejus.

„Visa tai turės būti išspręsta, nes įdarbinimo ateitis yra AI“, – „Bloomberg“ sakė advokatas Bradfordas Newmanas.

Kai kurie stebėtojai nesutinka su įmonėmis, naudojančiomis elgesio stebėjimo programinę įrangą, nes ji nėra pakankamai tiksli. Interviu Nigelas Duffy, profesionalių paslaugų įmonės EY pasaulinis dirbtinio intelekto lyderis, pasakojo Informacijos savaitė kad jam nerimą kelia programinė įranga, kuri naudoja socialinės žiniasklaidos viktorinas ir poveikio aptikimą.

„Manau, kad yra tikrai įtikinamos literatūros apie afekto aptikimo potencialą, bet aš suprantu, kad būdas, kuris dažnai įgyvendinamas, yra gana naivus“, – sakė jis.

„Žmonės daro išvadas, kad mokslas tikrai nepalaiko [pavyzdžiui,] nuspręsti, kad kažkas yra potencialus geras darbuotojas, nes jie daug šypsosi arba nusprendžia, kad kažkam patinka jūsų produktai, nes jie šypsosi a daug“.

Pranešama, kad Kinijos įmonės apibūdina mažumas

Kai kurios žmogaus teisių grupės teigia, kad elgesio stebėjimas gali turėti ir baisesnių tikslų. Kinijoje internetinės prekybos milžinė „Alibaba“ neseniai sukėlė ažiotažą teigiama, kad kad jos programinė įranga galėtų aptikti uigūrus ir kitas etnines mažumas.

„New York Times“. pranešė, kad bendrovės debesų kompiuterijos verslas turėjo programinę įrangą, kuri nuskaito vaizdus ir vaizdo įrašus.

"Tačiau net žmonės, kurie koduoja šiuos algoritmus... negalėjo pasakyti, kodėl jie pateikia kokią nors rekomendaciją."

„The Washington Post“. taip pat neseniai pranešė kad Huawei, kita Kinijos technologijų įmonė, išbandė programinę įrangą, galinčią įspėti teisėsaugą, kai jos stebėjimo kameros aptikdavo uigūrų veidus.

2018 m. „Huawei“ patento paraiška teigiama, kad kad veido atpažinimo technologijoje pėsčiųjų atributų identifikavimas yra labai svarbus. „Tikslinio objekto atributai gali būti lytis (vyras, moteris), amžius (pavyzdžiui, paaugliai, vidutinio amžiaus, seni) [arba] ​​rasė (hanas, uigūras)“, – teigiama programoje.

„Huawei“ atstovas spaudai sakė CNN Business kad etninės priklausomybės identifikavimo požymis „niekada neturėjo tapti programos dalimi“.

Augantis dirbtinio intelekto naudojimas dideliems duomenų kiekiams rūšiuoti neabejotinai kelia susirūpinimą dėl privatumo. Galbūt niekada nežinosite, kas ar kas jus analizuoja, kai kitą kartą eisite į darbo pokalbį.