„Twitter“ algoritmo rasinis šališkumas rodo didesnę techninę problemą

Key Takeaways

  • „Twitter“ tikisi ištaisyti tai, ką vartotojai vadina rasiniu šališkumu savo vaizdo peržiūros programinėje įrangoje.
  • Technologijų milžino kvietimas gali būti kultūrinis skaičiavimas, kurio pramonei reikia spręsti įvairovės problemas.
  • Technologijų įvairovės trūkumas kenkia jos technologinės pažangos veiksmingumui.
Twitter logotipas po padidinamuoju stiklu
Jaap Arriens / NurPhoto per Getty Images 

Twitter yra pradėjo tyrimą dėl savo nuotraukų apkarpymo algoritmo po to, kai ji tapo populiari tema, paskatinusia plačiau pradėti pokalbį apie technologijų pramonės įvairovės klausimus.

Socialinės žiniasklaidos žmogeliukas pateko į antraštes po to, kai vartotojai atrado akivaizdų rasinį šališkumą jo vaizdo peržiūros algoritme. Atradimas įvyko po to, kai „Twitter“ vartotojas Colinas Madlandas pasinaudojo platforma, norėdamas įvardinti „Zoom“ nesugebėjimą atpažinti savo juodaodžių kolegų, kurie naudojo žaliojo ekrano technologiją, tačiau demonstruodamas didžiulę ironiją, jis pastebėjo, kad „Twitter“ vaizdų apkarpymo algoritmas elgiasi panašiai ir juodaodžiui suteikė prioritetą. veidai.

„Žinoma, tai didžiulė problema bet kuriai mažumai, bet manau, kad yra ir daug platesnė problema“.

Kiti vartotojai įsitraukė į šią tendenciją, sukeldami daugybę virusinių tviterių, kuriuose nuosekliai rodomas algoritmas pirmenybę teikė baltiems ir šviesesnės odos veidams – nuo ​​žmonių iki animacinių filmų personažų ir net šunų. Ši nesėkmė rodo didesnį kultūrinį judėjimą technologijų pramonėje, kuris nuolat neatsižvelgė į mažumų grupes, o tai peraugo į techninę pusę.

„Dėl to mažumos jaučiasi siaubingai, tarsi jos nėra svarbios, be to, jis gali būti naudojamas kitiems dalykams, kurie gali padaryti rimtesnę žalą. Erikas Learned-Mileris, Masačusetso universiteto kompiuterių mokslų profesorius, sakė interviu telefonu. „Kai nuspręsite, kam programinės įrangos dalis gali būti naudojama ir kokiai žalai gali kilti, pradedame kalbėti apie būdus, kaip sumažinti jų tikimybę.

Kanarų salos laiko juostoje

„Twitter“ naudoja neuroninius tinklus, kad automatiškai apkarpytų vaizdus, ​​įterptus į tviterius. Algoritmas turėtų aptikti veidus, kad būtų galima peržiūrėti, tačiau atrodo, kad jis turi pastebimą baltos spalvos paklaidą. Bendrovės atstovė Liz Kelley tviteryje paskelbė atsakymą į visus susirūpinimą keliančius klausimus.

Kelley tviteryje parašė: „Ačiū visiems, kurie tai iškėlė. Prieš pristatydami modelį išbandėme šališkumą ir neradome rasinio ar lyties šališkumo įrodymų, tačiau akivaizdu, kad turime atlikti daugiau analizės. atidarysime savo darbą, kad kiti galėtų peržiūrėti ir pakartoti."

Baltosios knygos bendraautorius “Veido atpažinimo technologijos laukinėje aplinkoje: kvietimas į federalinį biurąLearned-Miller yra pirmaujanti tyrėja, tirianti AI mokymosi programinės įrangos perteklių. Jis daugelį metų diskutuoja apie galimą neigiamą įvaizdžio mokymosi programinės įrangos poveikį ir kalbėjo apie tai, kaip svarbu sukurti tikrovę, kurioje šie šališkumas būtų kiek įmanoma sumažintas gebėjimas.

Daugelis veidų atpažinimo technologijos algoritmų naudoja duomenų atskaitos rinkinius, dažnai vadinamus mokymo rinkiniais, kurie yra vaizdų rinkinys, naudojamas vaizdų mokymosi programinės įrangos veikimui sureguliuoti. Galiausiai tai leidžia AI lengvai atpažinti daugybę veidų. Tačiau šiems nuorodų rinkiniams gali trūkti įvairaus telkinio, todėl gali kilti tokių problemų, kokias patyrė „Twitter“ komanda.

„Žinoma, tai didžiulė problema bet kuriai mažumai, bet manau, kad yra ir daug platesnė problema“, – sakė Learned-Miller. „Tai susiję su įvairovės stoka technologijų sektoriuje ir būtinybe centralizuotos reguliavimo jėgos, kuri parodytų, kaip tinkamai naudojama tokia galinga programinė įranga, linkusi piktnaudžiauti ir piktnaudžiauti.

Technologijoms trūksta įvairovės

„Twitter“ gali būti naujausia pjaustymo bloko technologijų įmonė, tačiau tai toli gražu nėra nauja problema. Mokslininkai nustatė, kad technologijų sritis tebėra balta, nuolat dominuojanti vyrai kad įvairovės trūkumas sukelia sisteminių, istorinių išsivysčiusių šalių disbalanso replikaciją programinė įranga.

A 2019 m. Niujorko universiteto AI dabar instituto ataskaita, mokslininkai nustatė, kad juodaodžiai sudaro mažiau nei 6 procentus geriausių šalies technologijų įmonių darbuotojų. Panašiai moterys sudaro tik 26 procentus šios srities darbuotojų – tai yra mažesnė statistika nei jų dalis 1960 m.

„Dėl to mažumos jaučiasi siaubingai, tarsi jos nėra svarbios, ir tai gali būti naudojama kitiems dalykams, kurie gali padaryti rimtesnę žalą.

Iš pažiūros šie reprezentaciniai klausimai gali atrodyti kasdieniški, tačiau praktiškai žala gali būti didžiulė. Tyrėjai AI Now Institute ataskaitoje teigia, kad tai priežastiniu ryšiu susiję su programinės įrangos problemomis, dažnai neatsižvelgiančiomis į ne baltųjų ir ne vyrų populiacijas. Nesvarbu, ar tai infraraudonųjų spindulių muilo dozatoriai neaptinka tamsesnės odos arba „Amazon“ AI programinė įranga nesugeba atskirti moteriškų veidų nuo savo kolegų vyrų, nesugebėjimas spręsti įvairovės technologijų pramonėje lemia, kad technologijos nesugeba susidoroti su įvairiu pasauliu.

„Yra daug žmonių, kurie negalvojo apie problemas ir iš tikrųjų nesuvokia, kaip tai vyksta dalykai gali pakenkti ir kokia didelė ši žala“, – apie AI įvaizdį pasiūlė Learned-Miller mokymasis. „Tikimės, kad žmonių skaičius mažėja!