„Apple“ atideda kovos su išnaudojimu prieš vaikus technologiją

Po daugybės kritikų ir vartotojų pasipriešinimo „Apple“ atideda kovos su vaikų išnaudojimu priemones.

Rugpjūčio mėn. technologijų milžinė iš pradžių paskelbė apie naują politiką, kuri naudoja technologija, leidžianti pastebėti galimus vaikų išnaudojimo vaizdus „iCloud“ ir „Messages“, tačiau susirūpinimas sekė. Ekspertai perspėjo, kad nors „Apple“ pažadėjo vartotojų privatumą, technologija galiausiai keltų pavojų visiems Apple vartotojams.

iPhone

Getty Images / Justinas Sullivanas

Penktadienį, „Apple“ teigė, kad tai atidės šios technologijos diegimą visiškai patobulinti ir visiškai užtikrinti vartotojų privatumą.

„Remiantis klientų, advokatų grupių, tyrėjų ir kitų atsiliepimais, nusprendėme ateinančiais mėnesiais skirti daugiau laiko, kad rinkti informaciją ir atlikti patobulinimus prieš išleisdamas šias itin svarbias vaikų saugos funkcijas“, – sakoma „Apple“ atnaujintame pranešime. Interneto svetainė.

Seksualinės prievartos prieš vaikus aptikimo technologija turėjo būti prieinama vėliau šiais metais, kai bus išleista iOS 15 versija, tačiau dabar neaišku, kada ir ar ši funkcija pasirodys.

Naujoji technologija veiktų dviem būdais: pirma, nuskaitant vaizdą prieš sukuriant atsarginę kopiją „iCloud“. Jei tas vaizdas atitiks CSAM kriterijus, „Apple“ gautų tuos duomenis. Kita technologijos dalis naudoja mašininį mokymąsi, kad atpažintų ir sulietų seksualinio pobūdžio vaizdus, ​​​​kurius vaikai gauna per žinutes.

Tačiau po to, kai buvo paskelbta nauja politika, privatumo gynėjai ir grupės teigė, kad „Apple“ iš esmės atveria užpakalines duris, kuriomis blogi veikėjai gali piktnaudžiauti.

Į išspręsti šias problemas, „Apple“ išleido DUK puslapį netrukus po to, kai paskelbė apie CSAM technologiją. „Apple“ paaiškino, kad ši technologija nenuskaitys visų įrenginyje saugomų nuotraukų, nepažeis „Messages“ šifravimo nuo galo iki galo ir neteisingai nepažymės nekaltų žmonių teisėsaugai.