YouTubes New Age Restriction AI oroar HBTQ+-gemenskapen
Viktiga takeaways
- YouTubes automatiska åldersbegränsande programvara ger anledning till oro för HBTQ+-innehåll på plattformen.
- Företaget har kantats av kontroverser angående hbtq+-innehållsskapare som cementerar tvivel.
- Fördomar i maskininlärning ger trovärdighet åt idén att dess ofullkomliga implementering av filter sannolikt kommer att orättvist begränsa åtkomsten.

Med en historia av orättvist inriktning på HBTQ+-innehållsskapare i sin modereringsprocess, ses YouTubes nya AI-baserade teknik som ett oroande nästa steg för teknikjätten.
På tjänstemannen YouTube-blogg förra veckan presenterade videodelningsplattformen planer på att släppa en ny automatisk programvara för att "mer konsekvent tillämpa åldersbegränsningar" på videor som anses olämpliga för yngre tittare.
Motiverat av den senaste tidens oro för barn i appen, är det nya systemet baserat på maskininlärning programvara för artificiell intelligens med förmågan att avstå mänskliga moderatorer för en mer automatisk bearbeta. Problemet? YouTubes automatiserade system har anklagats för att peka ut HBTQ+-innehåll och skapare helt enkelt för existerande.
"Även om det inte är skadligt, vilket jag inte tror att det är, är det en brist på input från olika röster - eller åtminstone en brist på respekt."
"Maskininlärning är informerad av och skapad av människor, och det är möjligt att ha dessa fördomar som är inneboende i det eller inlärda av maskinen själv." YouTuber Rowan Ellis sa i en telefonintervju med Lifewire. "Dess partiskhet när det gäller [HBTQ+]-innehåll har varit uppenbar i de tidigare erfarenheterna av [HBTQ+] YouTubers, och jag har inte sett bevis för att något har gjorts för att stoppa det."
Baby, nu har vi dåligt blod
Ellis är en YouTuber som skapar utbildningsinnehåll med en feministisk och queer benägenhet, och 2017 hon publicerade en video på företagets begränsade läge. Som ett första försök till automatisk innehållsmoderering tillät detta läge användare att valfritt förhandsgranska "potentiellt vuxet innehåll" från sökförslag och rekommendationer.
Med över 100 000 visningar tror hon att det gjordes ett medvetet försök att utesluta hennes kanal från begränsning på grund av hennes högljudda motstånd mot överdrifterna i YouTubes nya steg mot moderering. Andra användare på plattformen hade inte så tur, och de fick YouTube att veta det.
A grupptalan mot YouTube lämnades in i augusti 2019 av en grupp på åtta HBTQ+-skapare som anklagade företaget Silicon Valley för att begränsa queer- och transvideoskapare och innehåll. Stämningen hävdar att webbplatsen använder "olaglig innehållsreglering, distribution och intäktsgenerering som stigmatiserar, begränsar, blockerar, demonetisera och ekonomiskt skada HBT-kärandena och den större HBT-gemenskapen." Det är fortfarande på väg genom Kalifornien domstolar.
"Maskininlärning är informerad av och skapad av människor, och det är möjligt att ha dessa fördomar som är inneboende i det eller inlärda av maskinen själv."
I juni samma år fick plattformen en flod av mediauppmärksamhet efter att ha vägrat att snabbt tillrättavisa den populära konservativa kommentatorn Steven Crowder för en månader lång, homofobiska trakasserier mot Vox journalisten och programledaren Carlos Maza. Detta cementerade vad Ellis sa är ett mönster med onlineplattformen att ignorera de unika utmaningar som queer-skapare står inför. HBTQ+-skapares bristande tilltro till YouTubes förmåga att visa upp för dem är inte utan meriter.
"Jag tror inte att de har förstått behovet av att det ska finnas transparens när det gäller sociala frågor och säkerställa jämlikhet," sa hon. "Det finns fortfarande barn runt om i världen som har vuxit upp med tanken att det är fel att vara gay, och när de börjar ifrågasätta det tro, men upptäcker att den stängs av genom en säker sökning eller begränsning, kommer det att förstärka denna idé att den är fel, olämplig, vuxen, pervers och smutsig."
Misslyckas med att autolära
Med sin smutsiga historia angående HBTQ+-innehållsskapare på sin plattform, hägrar fortfarande oro över implementeringen av maskininlärningsmjukvarans förmåga att urskilja större normer. Don Heider, Verkställande direktör vid Markkula Centrum för tillämpad etik, tyder på att risken för dårskap är en för stor risk för att spela.
"Det är svårt att tro att AI effektivt kan styra innehåll från flera länder med olika kulturella normer och standarder", skrev han i en e-postintervju. "AI ses alltför ofta som svaret på komplexa frågor. Vid det här laget kämpar AI och sättet det skapas på för att hantera även enkla uppgifter, än mindre all innehållsmoderering med vilken komplexitetsnivå som helst."
YouTube bestämde sig för att använda AI-teknik på grund av bristen på konsekvent moderering av mänskliga moderatorer, enligt sin blogg. Att öka användningen av datoriserade filter för att ta ner videor som bedöms vara olämpliga blev normen, och att implementera samma procedurer för dess åldersbegränsningspolicyer ses som ett logiskt nästa steg.
Eftersom ett företag försöker gradvis förbättra sina processer efter långvarig kritik angående sitt förhållande till barnkonsumenter, kommer detta beslut inte som någon överraskning.
"Jag tror inte att de har förstått behovet av att det ska finnas transparens när det gäller sociala frågor och att säkerställa jämlikhet."
Barn har blivit en viktig demografi för webbplatsen för videodelning. I Augusti, digital-videoanalysföretaget Tubular fann att, bortsett från musikvideor, toppade innehåll riktat till barn månadsslutlistan för de mest sedda videorna på YouTube.
Företagets intresse av att skydda detta lukrativa, framväxande kraftpaket på plattformen är vettigt. Verktygen som används för att upprätthålla detta skydd är dock fortfarande obehagliga för dem som redan har befunnit sig nedströms företagets modereringsprocedurer.
"Min oro är att det kommer att göra mycket skada och inte skydda [HBTQ+] ungdomar som behöver informativa, uppriktiga och ärliga innehåll som många [HBTQ+] YouTubers kan tillhandahålla, men som flaggas i sitt system som olämpligt," Ellis sa. "Även om det inte är skadligt, vilket jag inte tror att det är, är det en brist på input från olika röster - eller åtminstone en brist på respekt.
"Vi ser det hela tiden inom tekniken. När du tittar på att ansiktsigenkänning misslyckas med att särskilja olika svarta ansikten, eller när vi tittar på medicin och ser att medicin bara har testats på ett visst kön. Det här är större konversationer, och YouTube är inte undantaget från det."