АИ Боље у компромису од људи, проналази нову студију

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Будимо реални. Откако је први пут сањала вештачка интелигенција, људи су се плашили дана када су наши АИ владари преузели. Али неки истраживачи су тестирали способност вештачке интелигенције не само за то такмичити се са човечанством, али и са цоллаборате.

У студији објављеној у четвртак Натуре Цоммуницатионс Тим професора професора компјутерских наука, Јацоб Црандалл и Мицхаел Гоодрицх, заједно са колегама на МИТ-у и другим универзитетима, креирали су алгоритам за учење сарадње и компромиса машина.

Истраживачи су програмирали машине са алгоритмом званим С # и водили их кроз бројне игре са различитим партнерима - машинском машином, човеком-машином и људско-људским - да би тестирали који би упаривање довели до највише компромиса. Испоставило се да су машине (или барем оне које су програмиране са С #) много боље у компромису од људи.

Али то би могло рећи више о „људским неуспјехима“, каже главни истраживач Јацоб Црандалл Инверсе. "Наши људски учесници су имали тенденцију да буду нелојални - они би пукли усред кооперативног односа - и непоштени - око половине наших учесника је одлучило да не прати своје предлоге - у неком тренутку интеракције."

Машине које су биле програмиране да поштују поштење, с друге стране, биле су поштене. „Овај конкретни алгоритам учи да су моралне карактеристике добре. Програмирано је да не лаже, а такође се учи да одржава сарадњу када се појави “, каже Крендал.

Поред тога, истраживање је показало да су одређене стратегије сарадње биле ефикасније од других. Један од њих је био “јефтин разговор”, једноставни вербални сигнали који одговарају датој ситуацији, као што је “Слатко. Постајемо богати! ”Или“ Прихватам ваш задњи приједлог. ”Или, да изразим незадовољство,“ Проклетство! ”“ Платит ћете за то! ”Или чак“ У ваше лице! ”

Без обзира на врсту игре која се играла или ко је играо, јефтини разговор је удвостручио количину сарадње. Она је такође хуманизовала машине, са људским играчима који често нису знали да ли су били у интеракцији са машином или људским бићем.

Будући да је фокус овог истраживања био на тестирању С # алгоритма, један недостатак истраживања је да не узима у обзир културолошке разлике међу људима које би могле утицати на то како различите људске популације могу користити или интерпретирати стратегије као што су јефтине приче, или како Многи људски играчи могу се упустити у превару или нелојалност.

Прецизно, у завршној краткој причи књиге Исаац Асимова из 1950. године Ја, Робот - “Евитабле Цонфлицт” - АИ владари заправо преузимају планету. Али, зато што су тако разумне и програмиране са неким нераскидивим етичким правилима, то је добра ствар за људску расу. И, као што ова студија показује, зато што су људске интеракције неуредне и компликоване, можда можемо веровати машинама. Наравно, ако су програмирани за искреност.

Апстрактан:

Пошто је Алан Туринг замишљао вештачку интелигенцију, технички напредак се често мерио способношћу да се људи победе у сусретима са нултом сумом (нпр. Шах, покер или иди). Мање пажње је посвећено сценаријима у којима је сарадња између човека и машине корисна, али не и тривијална, као што су сценарији у којима људске и машинске преференције нису ни потпуно усклађене, нити у потпуности конфликтне. Сарадња не захтева чисту рачунску моћ, већ је олакшана интуицијом, културним нормама, емоцијама, сигналима и пре-еволуираним диспозицијама. Овде развијамо алгоритам који комбинује најсавременији алгоритам за учење појачања са механизмима за сигнализацију. Показали смо да овај алгоритам може да сарађује са људима и другим алгоритмима на нивоима који се супростављају људској сарадњи у различитим двоструким случајним игрицама. Ови резултати указују да је општа сарадња човек-машина остварива коришћењем не-тривијалног, али на крају једноставног скупа алгоритамских механизама.

$config[ads_kvadrat] not found