AI pagaliau galėtų padėti sunaikinti neapykantą kurstančią kalbą
Key Takeaways
- Naujas programinės įrangos įrankis leidžia dirbtiniam intelektui stebėti, ar interneto komentaruose nėra neapykantos kurstymo.
- Dirbtinis intelektas reikalingas interneto turiniui reguliuoti dėl didžiulio medžiagos kiekio, kuris pranoksta žmogaus galimybes.
- Tačiau kai kurie ekspertai teigia, kad AI kalbos stebėjimas kelia susirūpinimą dėl privatumo.

Christine Hume / Unsplash
Kaip internete daugėja neapykantos kurstymo, viena bendrovė teigia, kad gali turėti sprendimą, kuris nepasikliauja žmonių moderatoriais.
Paskambino startuolis Spektro laboratorijos teikia dirbtinio intelekto technologiją platformos tiekėjams, kad galėtų aptikti ir išjungti toksiškus mainus realiuoju laiku. Tačiau ekspertai teigia, kad dirbtinio intelekto stebėjimas taip pat kelia privatumo problemų.
„Dirbtinio intelekto stebėjimui dažnai reikia žiūrėti į modelius laikui bėgant, todėl reikia išsaugoti duomenis. Davidas Mūdis, saugumo ir privatumo atitikties vertinimo bendrovės „Schellman“ vyresnysis bendradarbis „Lifewire“ pasakojo interviu el. paštu. „Šie duomenys gali apimti duomenis, kuriuos įstatymai pažymėjo kaip privatumo duomenis (asmenį identifikuojanti informacija arba AII).
Daugiau neapykantos kalbos
„Spectrum Labs“ žada aukštųjų technologijų sprendimą senai neapykantos kurstymo problemai.
„Vidutiniškai padedame platformoms 50 proc. sumažinti turinio moderavimo pastangas ir 10 kartų padidinti toksiško elgesio aptikimą“, – sakė bendrovė. pretenzijas savo svetainėje.
„Spectrum“ teigia, kad bendradarbiavo su mokslinių tyrimų institutais, turinčiais specialių žalingų elgsenų patirties, kad sukurtų daugiau nei 40 elgesio identifikavimo modelių. Bendrovės „Guardian“ turinio moderavimo platformą sukūrė duomenų mokslininkų ir moderatorių komanda, siekdama „palaikyti bendruomenių apsaugą nuo toksiškumo“.
Auga poreikis kovoti su neapykanta kurstančia kalba, nes žmogui neįmanoma stebėti kiekvieno internetinio srauto dalies, Dylanas Foxas, „Lifewire“ interviu el. paštu sakė „AssemblyAI“, startuolio, teikiančio kalbos atpažinimą ir klientų, dalyvaujančių stebint neapykantą kurstančią kalbą, generalinis direktorius.
„Vien tik „Twitter“ per dieną yra apie 500 milijonų tviterių“, – pridūrė jis. „Net jei vienas žmogus galėtų patikrinti tviterį kas 10 sekundžių, „Twitter“ tam turėtų įdarbinti 60 tūkst. Vietoj to, procesui automatizuoti naudojame išmaniuosius įrankius, tokius kaip AI.
Skirtingai nei žmogus, dirbtinis intelektas gali veikti 24 valandas per parą, 7 dienas per savaitę ir galbūt būti teisingesnis, nes yra sukurtas taip, kad visiems vartotojams vienodai taikytų savo taisykles, nesikišant į asmeninius įsitikinimus, sakė Foxas. Taip pat kainuoja tie žmonės, kurie turi stebėti ir prižiūrėti turinį.
„Jie gali patirti smurtą, neapykantą ir žiaurius veiksmus, kurie gali pakenkti žmogaus psichinei sveikatai“, – sakė jis.
„Spectrum“ nėra vienintelė įmonė, siekianti automatiškai aptikti neapykantą kurstančią kalbą internete. Pavyzdžiui, Centre Malaysia neseniai pristatė internetinę sekimo priemonę sukurta neapykantos kurstymui tarp Malaizijos internautų. Jų sukurta programinė įranga, vadinama Tracker Benci, naudoja mašininį mokymąsi, kad aptiktų neapykantą kurstančią kalbą internete, ypač „Twitter“.
„Iššūkis yra tai, kaip sukurti erdves, kuriose žmonės iš tikrųjų galėtų konstruktyviai bendrauti vieni su kitais.
Privatumo susirūpinimas
Nors techniniai sprendimai, tokie kaip Spectrum, gali kovoti su neapykantos kurstymu internete, jie taip pat kelia klausimų, kiek kompiuteriai turėtų atlikti policijos veiklą.
Yra žodžio laisvė, bet ne tik kalbėtojams, kurių įrašai būtų pašalinti kaip neapykantos kurstymas, Irina Raicu, Santa Klaros universiteto Markkulos taikomosios etikos centro interneto etikos direktorius pasakojo Lifewire interviu el. paštu.
„Leidimas priekabiavimui „žodžio laisvės“ vardu paskatino tokių kalbų taikinius (ypač kai skirtas tam tikriems asmenims) nustoti kalbėti – visiškai atsisakyti įvairių pokalbių ir platformų“, – sakė Raicu. sakė. „Iššūkis yra tai, kaip sukurti erdves, kuriose žmonės iš tikrųjų galėtų konstruktyviai bendrauti vieni su kitais.
AI kalbos stebėjimas neturėtų kelti privatumo problemų, jei stebėjimo metu įmonės naudoja viešai prieinamą informaciją, sakė Foxas. Tačiau jei įmonė perka informaciją apie tai, kaip vartotojai sąveikauja kitose platformose, kad iš anksto nustatytų probleminius vartotojus, tai gali sukelti susirūpinimą dėl privatumo.
„Tai tikrai gali būti šiek tiek pilka sritis, priklausomai nuo programos“, - pridūrė jis.

Morganas Bashamas / Unsplash
„Spectrum“ iš karto nepateikė atsakymų į klausimus, pateiktus apie jos AI programas.
Galbūt artėjame prie AI, stebinčio žmogaus kalbą ir tekstą internete, revoliucijos slenksčio. Ateities pažanga apima geresnius nepriklausomus ir savarankiškus stebėjimo pajėgumus, leidžiančius nustatyti anksčiau nežinomas neapykantos kurstymo formas ar bet kokius kitus cenzūruojamus modelius, kurie vystysis, sakė Moody.
AI taip pat netrukus galės atpažinti konkrečių kalbos modelių modelius ir susieti šaltinius bei kitus jų šaltinius veikla, naudojant naujienų analizę, viešuosius įrašus, srauto modelių analizę, fizinį stebėjimą ir daugybę kitų galimybių, jis pridėjo.
Tačiau kai kurie ekspertai teigia, kad žmonės visada turės dirbti su kompiuteriais, kad galėtų stebėti neapykantą kurstančią kalbą.
„Vien AI neveiks“, – sakė Raicu. "Tai turi būti pripažinta kaip viena netobula priemonė, kurią reikia naudoti kartu su kitais atsakymais."