Ево како можемо зауставити будућност Рогуе А.И. из Имитатинг ХАЛ 9000

$config[ads_kvadrat] not found

Use of UTF 8 CodeHTML

Use of UTF 8 CodeHTML
Anonim

Како зауставити будућност А.И. од непослушности наредби и избору да иде својим путем? Можда звучи као заплет 2001: Одисеја у свемиру, али један стручњак тврди да је то нешто о чему већ морамо почети размишљати. Наравно, могли бисмо искључити Гооглеов алгоритам претраге ако је икада преварио, али када се суочи са финансијским и правним последицама, може бити лакше рећи него учинити. У будућности, како постајемо зависни од напреднијих А.И., то се може показати немогућим.

„Овај алгоритам није намерно дизајниран сама да се немогуће поновно покренути или искључити, али да је тако еволуирала да буде тако “, рекао је Стуарт Армстронг, истраживач у Институту за будућност хуманости, на Пирате Суммит 2016 у сриједу. То значи да је промјену с ненамјерним резултатима тешко исправити, и можда није прва А.И. да се нађе у тој ситуацији.

Решење Исака Асимова је било три закона роботике, које тврде идеје као да не наносе штету људима. Проблем је у томе што је штета прилично субјективна и отворена за тумачење. Људи раде више на вриједностима, као што је разумијевање да је лоше проузроковати штету и тумачити ситуацију, него радити на неком чврстом правилу да никада не смију штетити.

"Због ове врсте проблема људи су сада много више заинтересовани да користе машинско учење како би добили вредности, а не покушавају да их кодирају на овај традиционални начин", каже Армстронг. „Вредности су стабилне на начин да друге ствари нису у А.И. Вредности се суштински бране. ”

Али чак иу овим ситуацијама, важно је дизајнирати А.И. да их прекидају док трче. Сигурна прекидност омогућава сигурне промене политике, које могу да избегну нежељене последице научених вредности. Ако је ХАЛ 9000 икада покушао да заустави отварање врата за одлагање, важно је да можемо идентификовати да су вредности А.И. забрљане, и интервенисати без система.

$config[ads_kvadrat] not found