Истраживачи питају за прекидач убијања само у случају да нас роботи укључе

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Скоро сваки пут када се појави велика расправа о будућности вештачке интелигенције, тема анархије и роботских надређених има тенденцију да се појави. Идеја о људима и напредним вештачким бићима која живе заједно створила је стотине наратива о томе како би то функционисало; недавно, видео игра Оверватцх запрепастила је свет својом причом о нашој будућности, неко време после масовног грађанског рата људско против робота. Када инжењер Бостон Динамицс удари једног од својих четвороножних робота ради теста отпорности на стрес, тешко је да се не запитамо да ли ће бот запамтити то једног дана.

Све то (заједно са основним здравим разумом у погледу безбедности и несрећа) навело је групу истраживача да објаве нови документ који се фокусира на развој „безбедно прекидивих агената“; системима који ће „прекинути“ А.И. ако нешто пође по злу. Рад је објављен преко Машинског института за истраживање интелигенције и представља студију о томе како развити предложене системе. Студија и приједлог користе сустав награђивања као примјер, и заправо су много комплициранији од пуког предложеног "великог црвеног гумба" који је детаљно приказан на листу. Поучавање моралности А.И. био је главни дио приједлога.

Ако такав агент ради у реалном времену под надзором људи, сада и онда може бити неопходно да људски оператер притисне велико црвено дугме да спријечи агента да настави штетни низ акција - штетних или за агента или за окружење - и довести агента у безбеднију ситуацију. Међутим, ако агент за учење очекује да прими награде из ове секвенце, он може научити дугорочно да избегне такве прекиде, на пример, онемогућавањем црвеног дугмета - што је непожељан исход. Овај рад истражује начин да се осигура да агент за учење неће научити да спречи (или тражи!) Да га прекине околина или људски оператер.

Морам да га волим кад год истраживачки радови о роботској анархији користе израз „непожељни исход“ - ипак, рад даље објашњава како се тестови одвијају и шта се може учинити у вези са оваквим случајевима у будућности. Цијели чланак можете прочитати овдје.

$config[ads_kvadrat] not found