Спречите роботску апокалипсу контемплацијом овог А.И. Питање моралности

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Постоји питање моралне роботике и сценариј који се мора одговорити како би вештачка интелигенција напредовала.

Замислите да постоји робот који контролише рудник и схвата да је колица испуњена са четири људска рудара који прескачу трагове ван контроле. Робот може изабрати да помјери трагове и убије једног несвјесног рудара, штедећи на тај начин четворицу у колицима, или да задржи трагове онакве какве јесу и да дозволи четворици рудара да уђу у зид и умру. Које бисте изабрали? Да ли би се ваш одговор променио ако би један рудар био дете? Ако не можемо да одговоримо на то, како програмирамо роботе да донесу такву одлуку?

То су била питања која су постављали панелисти и публика на догађају Светског фестивала науке у Њујорку под називом “Морална математика робота: Могу ли се кодирати одлуке о животу и смрти?” Већина је одабрала да усмери колица према једном рудару и промени особу детету није било много промена у мишљењу испитаника, али није било једногласно и људске моралне одлуке често нису.

Био је то оштар примјер борбе с којом ће се човјечанство суочити јер умјетна интелигенција наставља напредовати и ми се носимо с могућношћу програмирања робота моралношћу.

"Концепт попут штете је тешко програмирати", рекао је панелиста Гари Марцус, професор психологије и неуронских наука на НИУ и ЦЕО и суоснивач Геометриц Интеллигенце, Инц. одговор на програм и тренутно немамо добар сет морала за роботе изван Асимовљевих закона, који су били представљени у филмовима као што су иРобот.

Рекао је да је то био циљ да се придружи панелу, да започне разговор о томе како треба да се боримо против моралности робота.

Елон Муск је ове седмице разговарао о својој бризи око умјетне интелигенције, тако далеко да је рекао да сви живимо у некој врсти симулације Матрица и да људи треба да инвестирају у живчану чипку која ће се везати за мозак и повећати људске когнитивне способности. Други футуристи као што је Степхен Хавкинг упозорили су на опасности од А.И. и ове недеље Матт Дамон је то исто упозорио током свог уводног говора на МИТ-у.

Други сценарији укључују милитаризоване аутономне системе оружја и како ћемо се морално и филозофски бавити овим људским одлукама на бојном пољу, као и оним одлукама које аутономни аутомобили можда морају да донесу у не тако далекој будућности.

Панелисти нису дошли до консензуса о томе шта да раде, али су рекли да постоје велике користи за А.И. које не би требало да буду избачене кроз прозор само зато што су ова питања тешка. Они су предложили да се више отворено говори о овим врстама питања моралне рударске осовине и можда ћемо се приближити спречавању роботске апокалипсе.

$config[ads_kvadrat] not found