AI New Age Restriction de la YouTube îngrijorează comunitatea LGBTQ+
Recomandări cheie
- Software-ul YouTube de restricționare automată a vârstei este un motiv de îngrijorare pentru conținutul LGBTQ+ de pe platformă.
- Compania a fost afectată de controverse cu privire la creatorii de conținut LGBTQ+ care cimentează îndoielile.
- Prejudecățile în învățarea automată conferă credibilitate ideii că implementarea sa imperfectă a filtrelor ar putea restricționa accesul pe nedrept.
Având o istorie de direcționare incorect a creatorilor de conținut LGBTQ+ în procesul său de moderare, noua tehnologie bazată pe inteligență artificială a YouTube este văzută ca un următor pas îngrijorător pentru gigantul tehnologic.
Pe oficial Blog YouTube Săptămâna trecută, platforma de partajare a videoclipurilor a dezvăluit planuri de a lansa un nou software automat pentru a „aplica în mod mai consecvent restricțiile de vârstă” pentru videoclipurile considerate nepotrivite pentru spectatorii mai tineri.
Motivat de preocupările recente cu privire la copiii din aplicație, noul sistem se bazează pe învățarea automată software de inteligență artificială cu capacitatea de a renunța la moderatorii umani pentru o mai automată proces. Problema? Sistemele automate ale YouTube au fost acuzate că au în evidență conținutul LGBTQ+ și creatorii pur și simplu pentru existență.
„Chiar dacă nu este rău intenționat, ceea ce nu cred că este, este o lipsă de contribuție din partea diverselor voci – sau cel puțin o lipsă de respect”.
„Învățarea automată este informată și creată de oameni și este posibil să existe acele părtiniri inerente în ea sau învățate de mașina în sine.” YouTuber Rowan Ellis a spus într-un interviu telefonic cu Lifewire. „Prejudecățile sale în ceea ce privește conținutul [LGBTQ+] a fost evidentă în experiențele anterioare ale YouTuberilor [LGBTQ+] și nu am văzut dovezi că s-a făcut ceva pentru a împiedica acest lucru.”
Dragă, acum avem sânge rău
Ellis este un YouTuber care creează conținut educațional cu o tendință feministă și queer, iar în 2017 ea a publicat un videoclip în modul restricționat al companiei. Ca o incursiune inițială în moderarea automată a conținutului, acest mod a permis utilizatorilor să pre-evalueze opțional „conținutul potențial matur” din sugestiile și recomandările de căutare.
Adunând peste 100.000 de vizionări, ea crede că a existat un efort conștient de a exclude canalul ei de la restricție din cauza opoziției ei vocale față de excesele noului pas YouTube către moderație. Alți utilizatori de pe platformă nu au fost atât de norocoși și au făcut să cunoască acest lucru pe YouTube.
A proces colectiv împotriva YouTube a fost depusă în august 2019 de un grup de opt creatori LGBTQ+ care au acuzat compania din Silicon Valley că restricționează producătorii și conținutul video queer și trans. Procesul susține că site-ul folosește „reglementarea conținutului ilegal, distribuirea și practicile de monetizare care stigmatizează, restricționează, blochează, demonetizează și dăunează financiar reclamanții LGBT și comunitatea LGBT mai mare.” Încă își face drum prin California. tribunale.
„Învățarea automată este informată și creată de oameni și este posibil să existe acele părtiniri inerente sau învățate de mașina în sine.”
În iunie a aceluiași an, platforma a primit un aval de atenție mass-media după ce a refuzat să-l mustre rapid pe comentatorul popular conservator Steven Crowder pentru o campanie de hărțuire homofobă de luni de zile împotriva Vox jurnalist și gazdă Carlos Maza. Acest lucru a cimentat ceea ce Ellis a spus că este un model cu platforma online de ignorare a provocărilor unice cu care se confruntă creatorii queer. Lipsa de încredere a creatorilor LGBTQ+ în capacitatea YouTube de a se prezenta în fața lor nu este lipsită de merit.
„Nu cred că au înțeles nevoia de a exista transparență în ceea ce privește problemele sociale și asigurarea egalității”, a spus ea. „Există încă copii în întreaga lume care au crescut cu ideea că a fi gay este greșit și când încep să pună la îndoială asta credință, dar o găsiți închisă printr-o căutare sau o restricție sigură, va întări ideea că este greșită, nepotrivită, adultă, perversă și murdar."
Învățare automată eșuată
Cu istoria sa sordidă în ceea ce privește creatorii de conținut LGBTQ+ pe platforma sa, grijile cu privire la implementarea capacității software-ului de învățare automată de a discerne norme mai mari încă se profilează. Don Heider, Director executiv la Centrul Markkula pentru Etică Aplicată, sugerează că potențialul de prostie este un risc prea mare pentru a juca.
„Este greu de crezut că inteligența artificială poate guverna în mod eficient conținutul din mai multe țări cu norme și standarde culturale diferite”, a scris el într-un interviu prin e-mail. „AI este prea des văzută ca răspunsul la întrebări complexe. În acest moment, AI și modul în care este creată se luptă să facă față chiar și sarcinilor simple, cu atât mai puțin cu orice moderare a conținutului cu orice nivel de complexitate.”
YouTube a decis să folosească tehnologia AI din cauza lipsei de moderare consecventă a moderatorilor umani, potrivit blogului său. Creșterea utilizării filtrelor computerizate pentru a elimina videoclipurile considerate nepotrivite a devenit o normă, iar implementarea acelorași proceduri pentru politicile sale de restricție de vârstă este văzută ca un următor pas logic.
Fiind o companie care încearcă să-și îmbunătățească treptat procesele după critici de lungă durată cu privire la relația cu copiii consumatori, această decizie nu este o surpriză.
„Nu cred că au înțeles nevoia de a exista transparență în ceea ce privește problemele sociale și asigurarea egalității”.
Copiii au devenit un grup demografic cheie pentru site-ul de partajare video. In august, firma de analiză digital-video Tubular a constatat că, în afară de videoclipurile muzicale, conținutul destinat copiilor se afla în fruntea listei de sfârșit de lună pentru cele mai vizionate videoclipuri pe YouTube.
Interesul companiei de a proteja această putere profitabilă și emergentă de pe platformă are sens. Cu toate acestea, instrumentele folosite pentru a impune această protecție rămân disconfortante pentru cei care s-au trezit deja în aval de procedurile de moderare ale companiei.
„Îngrijorarea mea este că va face mult rău și nu va proteja tinerii [LGBTQ+] care au nevoie de informații, sinceri și sinceri. conținut pe care mulți YouTuber [LGBTQ+] l-ar putea oferi, dar este semnalat în sistemul său ca nepotrivit”, Ellis spus. „Chiar dacă nu este rău intenționat, ceea ce nu cred că este, este o lipsă de contribuție din partea diverselor voci – sau cel puțin o lipsă de respect.
„Vedem asta tot timpul în tehnologie. Când te uiți la recunoașterea facială care nu reușește să diferențieze diferite fețe negre sau când ne uităm la medicamente și vedem că medicamentele au fost testate doar pe un anumit sex. Acestea sunt conversații mai ample, iar YouTube nu este scutit de asta.”