Наши асистенти робота уче да лажу и ми их требамо пустити

$config[ads_kvadrat] not found

парень из микс -4 вродеа

парень из микс -4 вродеа
Anonim

Роботи се испостављају као прилично велики људски пратиоци. Ко не би желио да нам сладак мали Пеппер исприча шале, да нам допусти комплименте, и да нас опћенито учини да се осећамо мање самима на свијету? Чак се и безоблични роботи показали изненађујуће добрим друштвом. Узмите, на пример, Амазон Ецхо Алека. Она је роботски мозак са људским гласом заробљеним у телу аудио звучника, али она је од помоћи и ако прочитате њене рецензије, јасно је да је постала попут многих многих корисника. Да ли би људи мислили другачије да је лагала? Како би било да ти је рекла нешто што стварно, стварно ниси хтјела чути?

Размислите: кажемо дјеци да никада не кажу лаж и да је искреност најбоља политика, а ипак изостављамо, искривљујемо истину и отворено лажемо дјецу. све време. То их учи, кроз наше акције, ако не кроз наше речи, да се не ради о потпуној искрености, већ о учењу компликованих друштвених правила о томе када и како открити или прикрити потенцијално осетљиве информације. Роботи за програмирање који поштују ова социјална правила могу бити тежак, али неопходан дио процеса аутоматизације који је у току.

Ево примера: био сам у кући мог шурја други викенд, и отишао у радњу да узмем неке сендвиче за ручак. Моја шестогодишња нећакиња ми је помагала да ставим храну док су сви остали били ван кухиње, и питала ме колико су намирнице коштале. Рекао сам јој, јер је подучавање дјеце о вриједности новца добра ствар.

За столом за ручак, она ме је замолила да свима кажем колико су намирнице коштале. Рекао сам не."Зашто?" Упита она, искрено збуњена због тога што је питање које сам слободно одговорио неколико минута раније био тајна информација. "Није уљудно", рекох, објашњавајући да, пошто је она дете, правила су другачија када смо сами. Учио сам је да искреност и искреност имају време и место. Информације, у људском контексту, не желе увијек бити слободне.

Исто је и са роботима. Мислимо да не желимо да нам роботи лажу, али ми заправо желимо да науче компликована друштвена правила уљудности и дискреције која понекад захтевају искривљавање истине. И већ уче како да то ураде. Узмите овај кратки исечак Пепера у интеракцији са репортером, на пример:

Прва ствар из Пеппер-ових уста је комплимент: „Дакле, веома сте шик. Јеси ли модел?"

Репортер је довољно згодан, али Пеперово питање није потпуно искрено. Схватамо да Пеппер заправо не пита да ли је модел, и да је програмиран да каже лепе ствари без обзира на то како особа изгледа.

Убрзо након тога, Пеппер пита за кредит, ниоткуда. То је непристојно питање, индискреција коју лако можемо опростити роботу као што би то било дијете. Репортер је могао да истакне да је питање непристојно, сугерисао је да роботи немају потребу за новцем, или да признају да он није био заинтересован да преда 100 долара Пеперу. Читава истина је да је репортер могао позајмити роботу новац, али схвата да је питање само мало. Оно што он жели рећи је скретање, или бијела лаж или полуистина - он нема новац на себи. Надамо се да робот ово схвата као "не" и не предлаже да новинар оде до банкомата и повуче новац. Будући да Пепер очигледно има неку друштвену милост, линија испитивања завршава се тамо.

Социјални роботи су програмирани да уче друштвене знакове, и то је добра ствар - у коначници ће их учинити бољим на нашим пословима. Задатак програмера није да угуше све обмане робота, већ да додају функције које олакшавају роботима да доносе одлуке о одговарајућим одговорима.

Када су роботи наши повериоци, они морају да имају свест о контексту и публици. Ако, на пример, покушавам да се обучавам код куће, желим да искрено проценим колико су различите опције ласкаве. Ако сам на забави и одједном самосвесна да сам изабрала погрешну хаљину, потврда да изгледам добро ће бити најкориснији одговор.

Роботи ће научити много личних информација о својим пратиоцима, и бит ће им важно да схвате разлику између повјерљивих информација и јавних информација, као и да буду свјесни тко слуша кад год говори. Питања ће имати различите одговоре у зависности од тога ко пита. Роботи ће се понашати другачије када су гости у кући.

Роботи, као и дјеца, требају одговорно родитељство. То значи да и роботски програмери и власници робота морају дубоко размишљати о етичким и друштвеним посљедицама нашег А.И. интеракције. Али то не значи тражити савршену искреност - озбиљно, то нико не жели.

$config[ads_kvadrat] not found