Хоће ли аутономно оружје рећи "не" незаконитим наредбама?

$config[ads_kvadrat] not found

Врываемсо-мясл-мясо

Врываемсо-мясл-мясо
Anonim

Баиназар Мохаммад Назар био је без свести на операционом столу када је строп почео да му пада. Отац четворо је прешао у болницу претходног дана након што је упуцан у ногу, и био је подвргнут својој другој операцији у два дана како би поправио своју повреду. Када су Американци почели да уништавају зграду, лекари који су радили на њему нису имали избора него да побегну сами од себе што брже могу.

Андрев Куилти ат Спољна политика прича причу о Баиназаровом животу и смрти у чланку који укључује фотографију његовог тијела прекривеног остацима на операцијском столу. Баиназар је био један од 31 људи које су Сједињене Државе убиле када је погодио болницу коју су водили доктори без граница (која се такође зове МСФ) у Кундузу, у Авганистану, 2. октобра.

Након штрајкова високих цивилних жртава, политичари и стручњаци питају како би се то могло догодити и шта се може учинити како би се осигурало да се то не понови. Међу заговорницима аутономних система наоружања, који се понекад називају "роботи убица", један популаран аргумент је да је људска грешка (или злоба) одговорна за велики степен злочина почињених током рата. Теоретски је могуће, кажу они, да роботи могу бити прецизнији у свом циљању, а мање склони грешкама него људи.

"У ствари, људска процена може доказати да су мање поуздани од техничких показатеља у врелини битке", пише Мицхаел Н. Сцхмитт, професор на УС Навал Вар Цоллеге. "Они који верују да иначе нису искусили маглу рата."

Амерички ваздушни напад на болницу МСФ у Авганистану "узрокован првенствено људском грешком" хттп://т.цо/Кс9ТГИА81аД пиц.твиттер.цом/ТУвит97206

- Телеграпх Невс (@ТелеграпхНевс) 25.11.2015

Питање је, дакле, да ли можете да програмирате ратна средства како бисте ограничили људско понашање како би штрајкови као што је болница у Кундузовој болници били немогући, или барем мање вјероватни?

Вероватно не - бар у блиској будућности. Али неки програмери вештачке интелигенције су дизајнирали робота који може рећи не људима. Дизајн експеримента је једноставан: човек каже роботу да иде напријед са стола, који робот у почетку одбија да уради. Када човек каже роботу да ће га ухватити, робот прихвата поруџбину.

То је далеко од полуаутономног хеликоптера који говори својој људској посади да не може извршити ваздушни напад на болницу јер би то био ратни злочин, али основна премиса је углавном иста. Као што су други истакли, људска анксиозност око ове врсте развоја у роботима је уобичајена у научној фантастици - мислим да ХАЛ-9000 каже: "Не могу то да урадим, Дејв" када закључава људе изван свемирске станице у 2001: Одисеја у свемиру.

Што се тиче специфичности штрајка у Кундузу, многе чињенице око напада остају спорне. МСФ је затражио независну истрагу, којој се влада Сједињених Држава противи, умјесто да обећава да ће провести властите ревизије.

Неки делови једне америчке истраге објављени су раније овог месеца и пронашли су људске и механичке грешке одговорне за штрајк. Међутим, раније ове седмице, два члана службе су се успротивила налазима извјештаја. Кажу да штрајк није била грешка. У њиховом рачуноводству, први пут су га пријавили АП Снаге Сједињених Америчких Држава за специјалне операције позвале су у штрајк јер су, иако се болница користила као талибански командни и контролни центар.

У званичној верзији, механички квар је довео до тога да је посада топничког брода АЦ-130 на почетку добила координате за празно поље. Посада је затим потражила зграду у подручју која одговара физичком опису који су добили, и отворио ватру. Када су се њихови инструменти поново калибрирали, они су посади дали исправне координате за своју мету, али је посада наставила да пали у болницу.

Ако је овај извештај тачан - да је компјутер у коначници био тачан и да су га људи игнорисали - даје одређену веру присталицама веће аутономије у системима оружја. С тим у вези, амерички рат против тероризма је препун примјера како војска или ЦИА ударају у "праву" мету и још увијек су на крају убили велики број цивила. Аутоматизација неће ријешити лошу интелигенцију, а покушаји програмирања апроксимације морала неће окончати ратне злочине.

У Сједињеним Државама постоји снажно искушење да стерилизирају рат и аутоматизацију, уклањајући Американце из штетног пута, који је предодређен да промијени саму дефиницију рата. Обамина склоност убијању беспилотним летелицама и пратећа увјеравања да су трутови најпрецизнија оружја икада створена, најјаснија су манифестација тих циљева. "Они су били прецизни, прецизни штрајкови против Ал Каиде и њихових подружница", рекао је Обама у сусрету Гоогле 2012. године.

Међутим, студија владе из 2013. године супротставља те тврдње. Утврђено је да су беспилотне летелице у Авганистану узроковале 10 пута више смртних случајева цивила од беспилотних возила. "Трутови нису магично бољи у избегавању цивила него борбених авиона", рекла је Сара Холевински, коаутор студије. Старатељ. "Када су пилоти који су летели авионима добили јасне директиве и обуку о цивилној заштити, могли су да смање стопе цивилних жртава."

Војска троши милионе на развој система за тимско повезивање између људи и робота, додатно замагљујући линије између мисија које се обављају људским или беспилотним оружјем. "Оно што желимо да урадимо у борби против борбе између људи и машина је да га пређемо на виши ниво, да погледамо ствари као што су тактике ројења", рекао је заменик министра одбране Боб Ворк. "Може ли Ф-35 ући у борбу са четири беспилотна крила?"

Хоће ли ти крилати рећи не ако им људски пилот да наредбу која је аналогна одласку са стола? Шта је са наређењем да се уништи болница или школа? Магла рата ће се применити у оба случаја. Ако одлучимо да превазиђемо машине, фраза „људска грешка“ ће бити један од најстрашнијих термина у сукобима будућности.

$config[ads_kvadrat] not found