Овај робот је научио како да каже "не" људским захтевима

$config[ads_kvadrat] not found

Age of Wonders 3 Let's Play

Age of Wonders 3 Let's Play
Anonim

Роботи, као и људи, морају да науче када да кажу "не". Ако је захтев немогућ, може проузроковати штету, или ће их одвратити од задатка, онда је то у најбољем интересу 'бот-а и његовог човека. за дипломатску не хвала да буде део разговора.

Али када машина треба да говори? И под којим условима? Инжењери покушавају да схвате како да усвоје овај осећај како и када да пркосе наредбама у хуманоидима.

Гледајте како овај Нао робот одбија ходати напријед, знајући да би то учинило да падне с руба стола:

Једноставне ствари, али свакако неопходне за проверу људске грешке. Истраживачи Гордон Бриггс и Маттхиас Сцхеутз са Туфтс универзитета развили су сложен алгоритам који омогућава роботу да процени оно што је човек тражио од њега, да одлучи да ли то треба да уради, и да одговара на одговарајући начин. Истраживање је представљено на недавном састанку Удружења за унапређење вештачке интелигенције.

Робот себи поставља низ питања везаних за то да ли је задатак способан. Да ли знам како то да урадим? Да ли сам сада физички способан? Да ли сам иначе физички способан да то урадим? Јесам ли сада у стању да то урадим? Да ли сам обавезан на основу своје друштвене улоге? Да ли се тиме крше неки нормативни принципи?

Резултат је робот који изгледа не само разуман, већ и један дан, чак и мудар.

Обратите пажњу на то како се Нао предомисли о ходању напријед након што га људско обећање ухвати. Било би лако замислити други сценарио, где робот каже: "Нема шансе, зашто бих ти веровао?"

Али Нао је друштвено створење. Задовољити људе је у његовом ДНК, па с обзиром на информацију да га човјек намјерава ухватити, он слијепо креће према понору. Наравно, ако би човек заварао своје поверење, он би био ухваћен, али ипак верује. То је Наоов начин.

Како роботски другови постају софистициранији, инжењери робота ће морати да се ухвате у коштац са овим питањима. Роботи ће морати доносити одлуке не само о очувању властите сигурности, већ ио већим етичким питањима. Шта ако човек тражи робота да убије? Да изврши превару? Да уништиш другог робота?

Идеја машинске етике не може се одвојити од вештачке интелигенције - чак и наши аутомобили будућности без возача ће морати бити конструисани да бирају изборе живота или смрти у наше име. Тај разговор ће нужно бити сложенији него само испоручивати наредбе за марширање.

$config[ads_kvadrat] not found