Расна пристрасност Твиттер алгоритма указује на већи технолошки проблем
Кључне Такеаваис
- Твитер се нада да ће исправити оно што корисници називају расном пристрасношћу у свом софтверу за преглед слика.
- Позив технолошког гиганта могао би бити културни обрачун који индустрија треба да се позабави питањима разноликости.
- Недостатак разноликости технологије штети ефикасности њеног технолошког напретка.
Твитер је спреман да покрене истрагу о свом алгоритму за исецање слика након што је постала тема у тренду која је подстакла већи разговор о питањима различитости у технолошкој индустрији.
Велики друштвени медији доспели су на насловне стране након што су корисници открили очигледну расну пристрасност у његовом алгоритму за преглед слика. Откриће се догодило након што је корисник Твитера Колин Мадланд користио платформу да прозове Зоом-ов неуспех да препозна своје црне колеге који су користили технологију зеленог екрана, али у великој иронији, открио је да се Твитер алгоритам за исецање слика понаша слично и да је црни умањио приоритет лица.
„Свакако, то је велико питање за сваку мањину, али мислим да постоји и много шире питање.
Други корисници су се укључили у тренд што је изазвало низ вирусних твитова који доследно приказују алгоритам давали приоритет белим и светлијим лицима, од људи до цртаних ликова, па чак и паса. Овај неуспех указује на већи културни покрет у технолошкој индустрији који доследно није успевао да узме у обзир мањинске групе, што се прелило на техничку страну.
„То чини да се мањине осећају ужасно, као да нису важне, и може се користити за друге ствари које могу проузроковати озбиљнију штету у наставку“, Ерик Леарнед-Миллер, професор рачунарства на Универзитету у Масачусетсу, рекао је у телефонском интервјуу. „Када одлучите за шта се део софтвера може користити и све штете које могу настати, онда почињемо да причамо о начинима да се минимизирају шансе да се то догоди.
Канаринац на временској линији
Твитер користи неуронске мреже за аутоматско исецање слика уграђених у твитове. Алгоритам би требало да детектује лица за преглед, али изгледа да има приметну белу пристрасност. Портпаролка компаније Лиз Кели је твитовала одговор на све забринутости.
Кели је твитовала: „хвала свима који су ово покренули. тестирали смо на пристрасност пре него што смо послали модел и нисмо пронашли доказе о расној или родној пристрасности у нашем тестирању, али је јасно да морамо да урадимо још анализа. отворићемо наш рад како би други могли да прегледају и реплицирају."
Коаутор беле књиге "Технологије за препознавање лица у дивљини: позив за савезну канцеларију,“ Леарнед-Миллер је водећи истраживач о ексцесима софтвера за учење вештачке интелигенције заснованог на лицу. Годинама је расправљао о потенцијалном негативном утицају софтвера за учење слика и говорио је о важности стварања реалности у којој су ове пристрасности ублажене на најбољи могући начин способност.
Многи алгоритми за технологију препознавања лица користе референтне скупове за податке, често познате као скупови за обуку, који су колекција слика која се користи за фино подешавање понашања софтвера за учење слика. То на крају омогућава вештачкој интелигенцији да лако препозна широку лепезу лица. Међутим, овим референтним скуповима може недостајати разноврстан скуп, што доводи до проблема попут оних са којима је искусио Твиттер тим.
„Свакако, то је велики проблем за сваку мањину, али мислим да постоји и много шире питање“, рекао је Леарнед-Миллер. „То се односи на недостатак разноликости у технолошком сектору и потребу за централизованом, регулаторном снагом која би показала правилну употребу ове врсте моћног софтвера склоног злоупотреби и злоупотреби."
Технологија нема разноликост
Твитер је можда најновија технолошка компанија на удару, али ово је далеко од новог проблема. Технолошка област остаје претежно бело поље у коме стално доминирају мушкарци и истраживачи су открили да недостатак различитости изазива репликацију системских, историјских неравнотежа у развијеним софтвер.
У а Извештај Института АИ Нов Универзитета у Њујорку за 2019, истраживачи су открили да црнци чине мање од 6 процената радне снаге у врхунским технолошким фирмама у земљи. Слично томе, жене чине само 26 процената радника на терену — што је статистика нижа од њиховог удела 1960. године.
„То чини да се мањине осећају ужасно, као да нису важне, и може се користити за друге ствари које могу проузроковати озбиљнију штету у наставку.
На површини, ова питања представљања могу изгледати свакодневна, али у пракси, нанесена штета може бити дубока. Истраживачи у извештају Института АИ Нов сугеришу да је ово узрочно повезано са проблемима са софтвером који често не узима у обзир не-беле и не-мушке популације. Било да је инфрацрвени дозатори сапуна који не откривају тамнију кожу или Амазонов АИ софтвер не успевајући да разликују женска лица од оних њихових мушких колега, неуспех у решавању различитости у технолошкој индустрији доводи до неуспеха технологије да се носи са разноликим светом.
„Постоји много људи који нису размишљали о проблемима и заправо не схватају како се то дешава ствари могу проузроковати штету и колико су те штете значајне“, сугерише Леарнед-Миллер о имиџу АИ учење. „Надајмо се да се тај број људи смањује!