А.И .: Истраживачи показују како машине могу да лажирају пут кроз разговоре

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Ако ништа друго, то можете много за вештачку интелигенцију: ретко се плаше да изгледају глупо. Ако учење А.И. сусреће се са нечим изван његовог унапријед програмираног знања, обично неће бити срамежљиво питати особу с којом говори да разјасни.

То, међутим, може довести до прилично монотоног разговора за људе који су укључени у разговор са цхатботом, гласовним асистентом или генерално познатом роботом: „Шта је јабука?“ „Шта је тирамису?“ „Шта је излечено месо?“ „Шта знаш? буквално било шта о храни коју си глупи рецепт?

Добили сте идеју, и како истраживачи са јапанског Универзитета у Осаки истичу у недавном фокусу на њихов рад, та последња линија указује на прави проблем са АИ: постављање питања може бити најбољи начин да науче, али то не значи Много се рачуна ако је гомила питања толико иритантна или досадна да људи одлутају. Није довољно за А.И. да зна шта не зна. Такође мора да зна како да држи људе довољно ангажованим да попуне празнине у њеном знању.

Њихова нова метода користи оно што је познато као лексичко стицање путем имплицитне потврде, што је у основи фенси начин да се каже да умјетна интелигенција сада може да срања свој пут кроз разговоре једнако добро као и људи. Он извлачи овај трик не тражећи од људи да потврде шта је нешто, већ говорећи нешто друго што индиректно доводи партнера за разговор да потврди или порекне да је инстинкт А.И. исправан.

Погледајмо пример.

Тхе А.И. зна довољно да нагађа о поријеклу фразе “наси горенг”, судећи да звучи индонезијски. Чињеница да је човек рекао да ће покушати кувар ово јело сугерише да је то нека врста хране, и тако А.И. генерира ту изјаву - не питање, иако је у њој скривено - о квалитету индонезијских ресторана у том подручју.

Тхе А.И. Претпоставља се да би могао да користи основне податке о недавним отварањима ресторана и њиховим онлине прегледима да би утврдио да ли та изјава има смисла у чињеницама, можда иначе каже нешто попут: “Стварно треба да буде више добрих индонезијских ресторана овде” ако не пронађе много опција.

Али то је само да би се смањила конфузија, јер би чак и људско неслагање са изјавом и даље одговарало на основно питање да ли је наси горенг индонезијски. Само ако особа пита шта је А.И. говори о томе да је јасно да је машина направила грешку.

Онда, ако сте мислили да сте се претварали у разговоре на забавама, то је нешто што само људи могу да ураде … извините, аутоматизација заиста долази за све нас.

$config[ads_kvadrat] not found