Како алгоритамска пристрасност може наштетити тинејџерима
Кључне Такеаваис
- Алгоритамска пристрасност је штетна за тинејџере који проводе много времена на интернету, кажу стручњаци.
- Корисници Твитера недавно су наишли на проблем у којем су црна лица одбачена у корист белих.
- Мозак тинејџера у развоју може бити посебно подложан штетним ефектима алгоритамске пристрасности, кажу истраживачи.
Предрасуде уграђене у неку технологију, познате као алгоритамска пристрасност, могу бити штетне за многе групе, али стручњаци кажу да је посебно штетно за тинејџере.
Алгоритамска пристрасност, када рачунарски системи показују резултате са предрасудама, је а растући проблем. Корисници Твитера су недавно пронашли пример пристрасности на платформи када је алгоритам за детекцију слика који обрезује фотографије исекао црна лица у корист белих. Компанија се извинила због проблема, али још није објавила исправку. То је пример пристрасности са којом се тинејџери суочавају када оду на интернет, што раде више од било које друге старосне групе, кажу стручњаци.
„Већина тинејџера није свјесна да их компаније друштвених медија имају за промовирање одређеног садржаја за који мисле да ће се свидјети корисницима [како би их натјерали да остану што дуже на платформи“, Др. Маи-Ли Нгуиен Стеерс, доцент на Школи медицинских сестара на Универзитету Дукуесне који проучава употребу друштвених медија међу адолесцентима/студентима, рекао је у интервјуу е-поштом.
„Чак и ако постоји одређени ниво свести о алгоритму, ефекат недовољног лајкова и коментара је и даље моћан и може утицати на самопоштовање тинејџера“, додао је Стеерс.
Девелопинг Браинс
Алгоритамска пристрасност може утицати на тинејџере на непредвиђене начине јер се њихов префронтални кортекс још увек развија, Микаела Писани, главни научник за податке код Роотстрапа, објашњено је у интервјуу е-поштом.
„Ефекат не добијања довољно лајкова и коментара је и даље снажан и може утицати на самопоштовање тинејџера.
„Тинејџери су посебно рањиви на феномен „друштвене фабрике“, где алгоритми стварају друштвене кластере на онлајн платформама, што доводи до анксиозности и депресије ако се не задовоље потребе тинејџера за друштвеним одобрењем“, рекао је Писани. „Алгоритми се поједностављују на основу претходних несавршених података — што доводи до превелике заступљености стереотипа на рачун нијансираних приступа формирању идентитета.
„Гледајући шире гледиште, такође смо остављени да се као друштво преиспитамо да ли желимо да алгоритми обликују наше путовања тинејџера у одрасло доба, и да ли овај систем чак подржава, а не гуши личну особу раст?"
Због ових проблема, постоји све већа потреба да се тинејџери имају на уму приликом дизајнирања алгоритама, кажу стручњаци.
„На основу доприноса стручњака за развој, научника података и заговорника младих, политике 21. око приватности података и алгоритамског дизајна такође би се могли конструисати са посебним потребама адолесцената у ум," Недавно је написала Авриел Еппс-Дарлинг, студент докторских студија на Харварду. „Ако уместо тога наставимо да умањујемо или игноришемо начине на које су тинејџери рањиви на алгоритамски расизам, штета ће вероватно одјекнути кроз генерације које долазе.
Борба против пристрасности
Док се не нађе решење, неки истраживачи покушавају да пронађу начине да умање штету коју младима наносе пристрасни алгоритми.
„Интервенције су биле фокусиране на то да тинејџери препознају да њихови обрасци друштвених медија негативно утичу њихово ментално здравље и покушавају да смисле стратегије да то ублаже (нпр. смањена употреба друштвених медија)", Стеерс рекао.
„Неки од студената које смо интервјуисали рекли су да се осећају принуђеним да генеришу садржај како би остао „релевантан“, чак и ако не желе да излазе или објављују“, наставила је она. „Међутим, они сматрају да треба да генеришу садржај како би одржали своје везе са својим следбеницима или пријатељима.
Коначан одговор би могао бити уклањање људске пристрасности из рачунара. Али пошто су програмери само људи, то је тежак изазов, кажу стручњаци.
Једно могуће решење је развој рачунара који су децентрализовани и програмирани да забораве ствари које су научили, каже Јохн Суит, шеф технологије у Фирма за роботику КОДА.
„Кроз децентрализовану мрежу, подаци и аналитика тих података се прикупљају и анализирају са више тачака“, рекао је Суит у интервјуу е-поштом. „Подаци се прикупљају и обрађују не из једне обраде АИ ума у границама свог алгоритма, већ стотине или чак хиљаде.
„Како се ти подаци прикупљају и анализирају, заборављају се стари „закључци“ или сувишни подаци. Кроз овај систем, алгоритам који је можда започео са пристрасношћу ће на крају исправити и заменити ту пристрасност ако се покаже да је погрешан."
Иако пристрасност може бити прастари проблем, можда постоје начини за борбу против њега, барем на мрежи. Дизајнирање рачунара који одбацују наше предрасуде је први корак.