Kaip AI galėtų stebėti savo pavojingus palikuonis
- Naujame dokumente teigiama, kad dirbtinis intelektas gali nustatyti, kuriems mokslinių tyrimų projektams gali prireikti daugiau reguliavimo nei kitiems.
- Tai dalis vis didėjančių pastangų atrasti, koks AI gali būti pavojingas.
- Vienas ekspertas teigia, kad tikrasis AI pavojus yra tas, kad dėl jo žmonės gali tapti kvailais.

Blue Planet Studio / Getty Images
Dirbtinis intelektas (AI) suteikia daug naudos, tačiau taip pat gali kelti pavojų. Ir dabar mokslininkai pasiūlė metodą, kaip stebėti savo kompiuterizuotus kūrinius.
Tarptautinė komanda sako a naujas popierius kad AI gali nustatyti, kurių tipų mokslinių tyrimų projektams gali prireikti daugiau reguliavimo nei kitiems. Mokslininkai naudojo modelį, kuris sujungia biologijos ir matematikos sąvokas ir yra dalis vis didėjančių pastangų atrasti, koks AI gali būti pavojingas.
„Žinoma, nors „mokslinės fantastikos“ pavojingas AI naudojimas gali kilti, jei taip nuspręsime [...], DI pavojingu daro ne pats DI, o [kaip mes jį naudojame]“, Thierry Rayna
Skirtukų laikymas
Naujausio straipsnio autoriai rašė įraše kad jie sukūrė modelį hipotetinėms AI varžyboms imituoti. Jie atliko modeliavimą šimtus kartų, kad pabandytų numatyti, kaip gali pasisekti realaus pasaulio AI lenktynės.
„Kintamasis, mūsų nuomone, yra ypač svarbus, buvo lenktynių „ilgis“ – laikas, per kurį mūsų imituojamos lenktynės pasiekė savo tikslą (funkcinį AI produktą), – rašė mokslininkai. „Kai dirbtinio intelekto lenktynės greitai pasiekė savo tikslą, pastebėjome, kad konkurentai, kuriems buvo užkoduota, kad visada nepaiso saugos priemonių, visada laimėjo.
Priešingai, mokslininkai nustatė, kad ilgalaikiai AI projektai nebuvo tokie pavojingi, nes ne visada laimi tie, kurie nepaisė saugumo. „Atsižvelgiant į šias išvadas, reguliavimo institucijoms bus svarbu nustatyti, kiek laiko gali trukti skirtingos AI lenktynės, taikydamos skirtingus reglamentus pagal jų numatomą laiką“, – rašė jie. „Mūsų išvados rodo, kad viena taisyklė visoms AI lenktynėms – nuo sprinto iki maratono – lems kai kuriuos rezultatus, kurie toli gražu nėra idealūs.
Davidas Zhao„Coda Strategy“, bendrovės, konsultuojančios dirbtinio intelekto klausimais, generalinis direktorius interviu su „Lifewire“ elektroniniu paštu sakė, kad pavojingą AI nustatyti gali būti sunku. Iššūkiai slypi tame, kad šiuolaikiniai AI metodai apima gilų mokymąsi.
„Žinome, kad gilus mokymasis duoda geresnių rezultatų daugeliu naudojimo atvejų, pvz., vaizdo aptikimo ar kalbos atpažinimo“, - sakė Zhao. „Tačiau žmonėms neįmanoma suprasti, kaip veikia giluminio mokymosi algoritmas ir kaip jis sukuria savo išvestį. Todėl sunku pasakyti, ar DI, duodantis gerų rezultatų, yra pavojingas, nes žmonėms neįmanoma suprasti, kas vyksta.
Programinė įranga gali būti „pavojinga“, kai naudojama kritinėse sistemose, kuriose yra pažeidžiamumų, kuriuos gali išnaudoti blogi veikėjai arba duoti neteisingus rezultatus, Mattas Shea, AI įmonės „MixMode“ strategijos direktorius, sakė el. Jis pridūrė, kad nesaugus AI taip pat gali sukelti netinkamą rezultatų klasifikavimą, duomenų praradimą, ekonominį poveikį ar fizinę žalą.
„Naudodami tradicinę programinę įrangą, kūrėjai užkoduoja algoritmus, kuriuos asmuo gali išnagrinėti, kad išsiaiškintų, kaip pašalinti pažeidžiamumą arba ištaisyti klaidą, žiūrėdamas į šaltinio kodą“, – sakė Shea. „Tačiau naudojant AI didžioji dalis logikos sukuriama iš pačių duomenų, užkoduotų duomenų struktūrose, pavyzdžiui, neuroniniuose tinkluose ir panašiai. Dėl to sistemos yra „juodosios dėžės“, kurių negalima ištirti ieškant ir ištaisant pažeidžiamumą, kaip įprasta programinė įranga.
Pavojai priekyje?
Nors AI buvo vaizduojamas tokiuose filmuose kaip Terminatorius Kaip piktoji jėga, ketinanti sunaikinti žmoniją, tikrieji pavojai gali būti proziškesni, sako ekspertai. Pavyzdžiui, Rayna teigia, kad dirbtinis intelektas gali padaryti mus kvailesnius.
„Tai gali atimti iš žmonių galimybę lavinti savo smegenis ir tobulinti žinias“, - sakė jis. „Kaip gali tapti rizikos kapitalo ekspertu, jei didžiosios laiko dalies neskiriu startuolių paraiškų skaitymui? Dar blogiau, AI yra žinoma „juodoji dėžė“ ir mažai paaiškinama. Nežinant, kodėl buvo priimtas konkretus AI sprendimas, iš to bus labai mažai ko pasimokyti, kaip ir negali tapti profesionaliu bėgiku važinėdamas po stadioną Segway.
Sunku pasakyti, ar DI, duodantis gerų rezultatų, yra pavojingas, nes žmonėms neįmanoma suprasti, kas vyksta.
Ko gero, didžiausia AI grėsmė yra galimybė, kad ji gali duoti šališkų rezultatų, Lyle Solomon, teisininkas, rašantis apie teisines AI pasekmes, sakė interviu el. paštu.
„AI gali padėti gilinti visuomenės skirtumus. AI iš esmės sukurtas iš duomenų, surinktų iš žmonių“, – pridūrė Solomonas. „[Tačiau], nepaisant daugybės duomenų, jame yra minimalūs poaibiai ir neapima to, ką visi galvoja. Taigi, duomenys, surinkti iš komentarų, viešų pranešimų, apžvalgų ir kt., turintys būdingą šališkumą, privers AI sustiprinti diskriminaciją ir neapykantą.