Зашто стручњаци кажу да треба да контролишемо вештачку интелигенцију, сада
Кључне Такеаваис
- Ново истраживање сугерише да можда не постоји начин да се контролише супер-паметна вештачка интелигенција.
- У часопису се тврди да би контрола АИ захтевала много напреднију технологију од оне коју тренутно поседујемо.
- Неки стручњаци кажу да би заиста интелигентна вештачка интелигенција могла доћи раније него што мислимо.
Ако људи икада развију супер-паметну вештачку интелигенцију, можда неће постојати начин да се то контролише, кажу научници.
АИ се дуго рекламирао или као лек за све проблеме човечанства или као а Терминатор- стил апокалипсе. До сада, међутим, АИ се није приближио чак ни интелигенцији на људском нивоу. Али држање поводца на напредној АИ би могло бити превише сложен проблем за људе ако се икада развије, према новији рад објављено у Јоурнал оф Артифициал Интеллигенце Ресеарцх.
„Супер-интелигентна машина која контролише свет звучи као научна фантастика“, рекао је Мануел Цебриан, један од коаутора овог документа. Саопштење за штампу.
„Али већ постоје машине које обављају одређене важне задатке независно, а да програмери у потпуности не разумеју како су то научили. Стога се поставља питање да ли би то у једном тренутку могло постати неконтролисано и опасно за човечанство“.
Ускоро на супер рачунару у вашој близини
У часопису се тврди да би контрола АИ захтевала много напреднију технологију од оне коју тренутно поседујемо.
У својој студији, тим је осмислио теоретски алгоритам за задржавање који осигурава да суперинтелигентна АИ не може нанети штету људима под било којим околностима, тако што ће прво симулирати понашање АИ и зауставити га ако се узме у обзир штетно. Али аутори су открили да се такав алгоритам не може изградити.
„Ако проблем сведете на основна правила из теоријске рачунарске науке, испоставиће се да је алгоритам који би командовао АИ да не уништи свет, могло би ненамерно зауставити сопствене операције." Ијад Рахван, директор Центра за људе и машине у Макс Планк институт за људски развој у Немачкој, наводи се у саопштењу.
„Ако би се ово догодило, не бисте знали да ли алгоритам за задржавање још увек анализира претњу или је престао да задржи штетну вештачку интелигенцију. У ствари, ово чини алгоритам за задржавање неупотребљивим."
Заиста интелигентна вештачка интелигенција може бити овде раније него што мислимо, тврди Михалис Вазиргијанис, професор рачунарства на Ецоле Политецхникуе у Француској. „АИ је људски артефакт, али брзо постаје аутономни ентитет“, рекао је он у мејлу за Лифевире.
„Критична тачка ће бити ако/када дође до сингуларности (тј. када ће АИ агенти имати свест као ентитет) и стога ће тражити независност, самоконтролу и евентуалну доминацију.
Сингуларност долази
Вазиргианнис није сам у предвиђању скорог доласка супер АИ. Прави верници у претњу вештачке интелигенције воле да причају о „сингуларности“, за коју Вазиргијанис објашњава да ће АИ заменити људску интелигенцију и „да ће АИ алгоритми потенцијално схватити своје постојање и почети да се понашају себично и кооперативно“.
Према Реју Курцвајлу, Гоогле-овом директору инжењеринга, сингуларност ће стићи пре средине 21. века. „2029. је конзистентан датум за који сам предвидео када ће АИ проћи важећи Тјурингов тест и стога достићи ниво људске интелигенције“, рекао је Курзвајл Футуризам.
"Ако не можемо да очистимо сопствену кућу, који код би требало да тражимо од АИ да следи?"
„Одредио сам датум 2045. за 'Сингуларност', када ћемо умножити нашу ефективну интелигенцију милијарду пута спајањем са интелигенцијом коју смо створили.
Али не мисле сви стручњаци за вештачку интелигенцију да су интелигентне машине претња. Већа је вероватноћа да ће вештачка интелигенција која је у развоју бити корисна за развој лекова и не показује никакву стварну интелигенцију, консултант за вештачку интелигенцију Еммануел Маггиори рекао је у интервјуу мејлом. „Постоји велика помпа око вештачке интелигенције, због чега звучи као да је заиста револуционарно“, додао је он. „Тренутни системи вештачке интелигенције нису толико тачни колико је објављено и праве грешке које човек никада не би направио.
Преузмите контролу над вештачком интелигенцијом, сада
Регулисање вештачке интелигенције тако да не избегне нашој контроли може бити тешко, каже Вазиргианнис. Компаније, а не владе, контролишу ресурсе који покрећу АИ. „Чак се и сами алгоритми обично производе и примењују у истраживачким лабораторијама ових великих и моћних, обично мултинационалних, ентитета“, рекао је он.
„Очигледно је, дакле, да владе држава имају све мање контроле над ресурсима неопходним за контролу вештачке интелигенције.
Неки стручњаци кажу да ће људи за контролу суперинтелигентне вештачке интелигенције морати да управљају рачунарским ресурсима и електричном енергијом. „Научнофантастични филмови попут Матрица правити пророчанства о дистопијској будућности у којој вештачка интелигенција користи људе као изворе био-моћи“, рекао је Вазиргијанис.
„Иако су удаљене немогућности, човечанство би требало да обезбеди довољну контролу над рачунарским ресурсима (тј. компјутерским кластерима, ГПУ-овима, суперкомпјутери, мреже/комуникације), и наравно електране које обезбеђују електричну енергију која је апсолутно штетна за функцију вештачке интелигенције."
Проблем са контролом вештачке интелигенције је у томе што истраживачи не разумеју увек како такви системи доносе своје одлуке, каже Мајкл Бертолд, суоснивач и извршни директор софтверска фирма за науку о подацима КНИМЕ, рекао је у интервјуу мејлом. "Ако то не урадимо, како то можемо 'контролисати'?"
Додао је: „Не разумемо када се донесе потпуно другачија одлука на основу, за нас, ирелевантних инпута.
Једини начин да се контролише ризик коришћења вештачке интелигенције је да се осигура да се користи само када је тај ризик управљив, рекао је Бертхолд. „Другачије речено, два екстремна примера: немојте стављати вештачку интелигенцију на челу ваше нуклеарне електране где мала грешка може имати катастрофалне споредне ефекте“, додао је он.
„С друге стране, вештачка интелигенција предвиђа да ли ваша собна температура треба мало да се подеси или смањи, може бити вредно малог ризика у корист удобности живота.
Ако не можемо да контролишемо вештачку интелигенцију, боље је да је научимо манирима, бивши НАСА компјутерски инжењер Петер Сцотт рекао је у интервјуу мејлом. „На крају крајева, не можемо да обезбедимо управљивост вештачке интелигенције више него што можемо да обезбедимо нашу децу“, рекао је он.
„Право их васпитавамо и надамо се најбољем; до сада нису уништили свет. Да бисмо их добро васпитали, потребно нам је боље разумевање етике; ако не можемо да очистимо сопствену кућу, који код би требало да тражимо од АИ да следи?"
Али свака нада није изгубљена за људску расу, каже истраживач вештачке интелигенције Јонатан Векслер, извршни потпредседник за истраживање и развој у ОрЦам. „Иако је напредак заиста импресиван, моје лично уверење је да људску интелигенцију не треба потцењивати“, рекао је он у интервјуу мејлом. „Ми као врста смо створили прилично невероватне ствари, укључујући саму вештачку интелигенцију.
Потрага за све паметнијом вештачком интелигенцијом се наставља. Али можда би било боље размислити о томе како контролишемо своје креације пре него што буде прекасно.