AI ข้อจำกัดยุคใหม่ของ YouTube เป็นห่วง LGBTQ+ Community
ประเด็นที่สำคัญ
- ซอฟต์แวร์จำกัดอายุอัตโนมัติของ YouTube ทำให้เกิดความกังวลเกี่ยวกับเนื้อหา LGBTQ+ บนแพลตฟอร์ม
- บริษัทได้รับผลกระทบจากความขัดแย้งเกี่ยวกับผู้สร้างเนื้อหา LGBTQ+ ที่สร้างความสงสัย
- ความลำเอียงในการเรียนรู้ของเครื่องทำให้เกิดความคิดที่ว่าการใช้ตัวกรองที่ไม่สมบูรณ์นั้นมีแนวโน้มที่จะจำกัดการเข้าถึงอย่างไม่ยุติธรรม

ด้วยประวัติการกำหนดเป้าหมายผู้สร้างเนื้อหา LGBTQ+ อย่างไม่เป็นธรรมในกระบวนการกลั่นกรอง เทคโนโลยีที่ใช้ AI ใหม่ของ YouTube ถูกมองว่าเป็นขั้นตอนต่อไปที่น่าหนักใจสำหรับยักษ์ใหญ่ด้านเทคโนโลยี
อย่างเป็นทางการ บล็อก YouTube เมื่อสัปดาห์ที่แล้ว แพลตฟอร์มแชร์วิดีโอได้เปิดเผยแผนการที่จะเผยแพร่ซอฟต์แวร์อัตโนมัติตัวใหม่เพื่อ "ใช้การจำกัดอายุอย่างสม่ำเสมอมากขึ้น" สำหรับวิดีโอที่ถือว่าไม่เหมาะสมสำหรับผู้ชมที่อายุน้อยกว่า
แรงบันดาลใจจากความกังวลล่าสุดเกี่ยวกับเด็ก ๆ ในแอป ระบบใหม่นี้มีพื้นฐานมาจากการเรียนรู้ด้วยเครื่อง ซอฟต์แวร์ปัญญาประดิษฐ์ที่มีความสามารถในการละทิ้งผู้ดูแลที่เป็นมนุษย์สำหรับการทำงานอัตโนมัติมากขึ้น กระบวนการ. ปัญหา? ระบบอัตโนมัติของ YouTube ถูกกล่าวหาว่าแยกแยะเนื้อหาและผู้สร้าง LGBTQ+ ออกจากกัน
“ถึงแม้ว่ามันจะไม่เป็นอันตราย ซึ่งฉันไม่คิดว่ามันจะเป็น มันคือการขาดข้อมูลจากเสียงที่หลากหลาย—หรืออย่างน้อยก็ขาดความเคารพ”
"แมชชีนเลิร์นนิงได้รับการแจ้งและสร้างขึ้นโดยมนุษย์ และมีความเป็นไปได้ที่จะมีอคติที่มีอยู่ในตัวหรือเรียนรู้โดยตัวเครื่องเอง" YouTuber Rowan Ellis กล่าวในการสัมภาษณ์ทางโทรศัพท์กับ Lifewire. "ความลำเอียงเกี่ยวกับเนื้อหา [LGBTQ+] นั้นชัดเจนในประสบการณ์ก่อนหน้าของ YouTubers [LGBTQ+] และฉันไม่เห็นหลักฐานว่ามีการดำเนินการใดๆ เพื่อหยุดยั้งไม่ให้เกิดขึ้น"
ที่รัก ตอนนี้เรามีเลือดไม่ดีแล้ว
Ellis เป็น YouTuber ที่สร้างเนื้อหาด้านการศึกษาที่มีสตรีนิยมและแปลกประหลาด และในปี 2017 เธอเผยแพร่วิดีโอ ในโหมดจำกัดของบริษัท โหมดนี้อนุญาตให้ผู้ใช้เลือกคัดกรอง "เนื้อหาที่อาจเป็นผู้ใหญ่" ล่วงหน้าจากคำแนะนำและคำแนะนำการค้นหา
ด้วยจำนวนการดูมากกว่า 100,000 ครั้ง เธอเชื่อว่ามีความพยายามอย่างมีสติในการปิดกั้นช่องของเธอจาก การจำกัดเนื่องจากการคัดค้านของเธอกับขั้นตอนใหม่ของ YouTube ในการกลั่นกรอง ผู้ใช้รายอื่นบนแพลตฟอร์มไม่ได้โชคดีนัก และพวกเขาทำให้ YouTube รู้
NS การฟ้องร้องดำเนินคดีแบบกลุ่มต่อ YouTube ถูกฟ้องในเดือนสิงหาคม 2019 โดยกลุ่มครีเอเตอร์ LGBTQ+ แปดคน ซึ่งกล่าวหาว่าบริษัทในซิลิคอนแวลลีย์จำกัดผู้ผลิตและเนื้อหาวิดีโอเพศทางเลือกและทรานส์ คดีดังกล่าวอ้างว่าไซต์ใช้ "ระเบียบข้อบังคับด้านเนื้อหา การเผยแพร่ และการสร้างรายได้ที่ผิดกฎหมายที่ตีตรา จำกัด บล็อก ทำลายล้างและทำร้ายทางการเงินแก่โจทก์ LGBT และชุมชน LGBT ที่ยิ่งใหญ่กว่า” มันยังคงดำเนินต่อไปในแคลิฟอร์เนีย ศาล
"แมชชีนเลิร์นนิงได้รับการแจ้งและสร้างขึ้นโดยมนุษย์ และมีความเป็นไปได้ที่จะมีอคติเหล่านี้อยู่ในตัวหรือเรียนรู้จากเครื่องเอง"
ในเดือนมิถุนายนของปีเดียวกันนั้น แพลตฟอร์มดังกล่าวได้รับความสนใจจากสื่อมวลชนอย่างล้นหลาม หลังจากปฏิเสธที่จะตำหนิติเตียน นักวิจารณ์หัวโบราณยอดนิยมอย่าง สตีเวน คราวเดอร์ แคมเปญการล่วงละเมิดทางเพศแบบปรักปรำที่กินเวลานานหลายเดือน ขัดต่อ Vox นักข่าวและพิธีกร Carlos Maza สิ่งนี้ทำให้สิ่งที่เอลลิสกล่าวว่าเป็นรูปแบบเดียวกับแพลตฟอร์มออนไลน์ที่เพิกเฉยต่อความท้าทายที่ไม่เหมือนใครที่ครีเอเตอร์เพศทางเลือกต้องเผชิญ ครีเอเตอร์ LGBTQ+ ขาดความเชื่อมั่นในความสามารถของ YouTube ในการแสดงตนเพื่อพวกเขาไม่ได้ถือว่าไม่มีคุณธรรม
“ฉันไม่คิดว่าพวกเขาเข้าใจถึงความจำเป็นที่จะต้องมีความโปร่งใสในประเด็นทางสังคมและสร้างความเท่าเทียมกัน” เธอกล่าว “ยังมีเด็กทั่วโลกที่โตมากับความคิดที่ว่าการเป็นเกย์มันผิด และเมื่อพวกเขาเริ่มตั้งคำถามว่า ความเชื่อ แต่พบว่าถูกปิดตัวลงโดยการค้นหาหรือข้อจำกัดที่ปลอดภัย จะเป็นการตอกย้ำความคิดนี้ว่าผิด ไม่เหมาะสม เป็นผู้ใหญ่ วิปริต และ สกปรก."
ล้มเหลวในการเรียนรู้อัตโนมัติ
ด้วยประวัติที่ไม่ดีเกี่ยวกับผู้สร้างเนื้อหา LGBTQ+ บนแพลตฟอร์ม ความกังวลเกี่ยวกับการนำความสามารถของซอฟต์แวร์การเรียนรู้ของเครื่องมาใช้ในการแยกแยะบรรทัดฐานที่มากขึ้นยังคงมีอยู่ ดอนไฮเดอร์, ผู้อำนวยการศูนย์จรรยาบรรณประยุกต์ มกกุลาแสดงว่าความเขลานั้นเสี่ยงเกินไปที่จะเสี่ยงดวง
"เป็นเรื่องยากที่จะเชื่อว่า AI สามารถควบคุมเนื้อหาจากหลายประเทศได้อย่างมีประสิทธิภาพด้วยบรรทัดฐานและมาตรฐานทางวัฒนธรรมที่แตกต่างกัน" เขาเขียนในการสัมภาษณ์ทางอีเมล "มักถูกมองว่า AI เป็นคำตอบสำหรับคำถามที่ซับซ้อน ณ จุดนี้ AI และวิธีที่มันสร้างขึ้นนั้นต้องดิ้นรนเพื่อจัดการกับงานง่ายๆ นับประสาการกลั่นกรองเนื้อหาที่มีระดับความซับซ้อนทุกระดับ"
YouTube ตัดสินใจใช้เทคโนโลยี AI เนื่องจากขาดการกลั่นกรองที่สอดคล้องกันโดยผู้ดูแลที่เป็นมนุษย์ ตามบล็อก การเพิ่มการใช้ตัวกรองด้วยคอมพิวเตอร์เพื่อลบวิดีโอที่ถือว่าไม่เหมาะสมกลายเป็นเรื่องปกติ และการใช้ขั้นตอนเดียวกันสำหรับนโยบายการจำกัดอายุจะถูกมองว่าเป็นขั้นตอนต่อไปที่สมเหตุสมผล
ในฐานะบริษัทที่พยายามจะค่อยๆ ปรับปรุงกระบวนการหลังจากที่ถูกวิพากษ์วิจารณ์มาอย่างยาวนานเกี่ยวกับความสัมพันธ์ของบริษัทกับผู้บริโภคที่เป็นเด็ก การตัดสินใจครั้งนี้จึงไม่น่าแปลกใจเลย
"ฉันไม่คิดว่าพวกเขาเข้าใจถึงความจำเป็นในการมีความโปร่งใสในประเด็นทางสังคมและสร้างความเท่าเทียมกัน"
เด็ก ๆ ได้กลายเป็นกลุ่มประชากรหลักสำหรับไซต์แบ่งปันวิดีโอ ในเดือนสิงหาคม, Tubular บริษัทวิเคราะห์วิดีโอดิจิทัล พบว่านอกจากมิวสิกวิดีโอแล้ว เนื้อหาที่มุ่งเป้าไปที่เด็กยังเป็นอันดับต้นๆ ของรายการวิดีโอที่มีคนดูมากที่สุดบน YouTube ในช่วงปลายเดือนอีกด้วย
ความสนใจของบริษัทในการปกป้องโรงไฟฟ้าที่ทำกำไรและเกิดใหม่บนแพลตฟอร์มนั้นสมเหตุสมผล อย่างไรก็ตาม เครื่องมือที่ใช้ในการบังคับใช้การป้องกันนี้ยังคงสร้างความไม่สะดวกสำหรับผู้ที่พบว่าตนเองอยู่ท้ายน้ำของกระบวนการกลั่นกรองของบริษัท
“ความกังวลของฉันคือมันจะส่งผลเสียมากมายและไม่ปกป้องเยาวชน [LGBTQ+] ที่ต้องการข้อมูล ตรงไปตรงมา และซื่อสัตย์ เนื้อหาที่ผู้ใช้ YouTube [LGBTQ+] จำนวนมากอาจจัดหาให้ แต่ถูกตั้งค่าสถานะในระบบว่าไม่เหมาะสม" เอลลิส กล่าวว่า. “ถึงแม้ว่ามันจะไม่เป็นอันตราย ซึ่งฉันไม่คิดว่ามันจะเป็น มันคือการขาดข้อมูลจากเสียงที่หลากหลาย—หรืออย่างน้อยก็ขาดความเคารพ
“เราเห็นว่าตลอดเวลาในด้านเทคโนโลยี เมื่อคุณดูการจดจำใบหน้าแต่ไม่สามารถแยกความแตกต่างของใบหน้าสีดำ หรือเมื่อเราดูยาและพบว่ายานั้นได้รับการทดสอบในเพศใดเพศหนึ่งเท่านั้น นี่เป็นการสนทนาที่ใหญ่กว่า และ YouTube ก็ไม่ได้รับการยกเว้นจากเรื่องนั้น"