Машинирање оружја против ИСИС-а ће заплетати војне ланце командовања

$config[ads_kvadrat] not found

Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей

Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей
Anonim

Сви на интернету су се сјајно забавили са Таиом, Мицрософтовим Твиттеровим роботом који је постао расистички холивудски порицатељ за неколико сати (онда се вратио и поново урадио). Компанија је створила блапу за односе са јавношћу - више инцидента него катастрофа - док је дала јавности лекцију о предностима и манама машинског учења: Аутоматизација може убрзати обрасце на фасцинантан ефекат, али резултати ће се предвидљиво тешко предвидети.

Као што је често случај, војска је рано усвојила технологију аутоматизације. То је - у једном тренутку - водило наплату ка машинском учењу и очајнички покушавало да одржи корак. Једна од главних области у фокусу Пентагона су аутономни роботи и како ће се удружити са људима - на пример, роботским крилатом у стилу Р2Д2. Међутим, ове недеље, заменик секретара одбране Роберт Рад је изнио још један задатак за А.И.

"Потпуно смо сигурни да ће нам употреба машина за дубоко учење омогућити боље разумијевање ИСИЛ-а као мреже и боље разумијевање о томе како га прецизно циљати и довести до њеног пораза", рекао је Секретар рада. ДоД'с вебсите. Према том извештају, Ворк, који је говорио на догађају који је организовао Вашингтон пост, док је гледао како силиконска долина техничку компанију демонстрира “машину која је преузела податке из Твиттера, Инстаграма и многих других јавних извора како би показала пуцање у авиону Малезије Аирлинес 17. јула 2014. у реалном времену”.

Приватне компаније и полиција дуго времена покушавају да смисле "велике податке". Али војска има предност: ресурс. Такође, они имају приступ поверљивим материјалима.

Америчка влада је спремна да се клади да софтверски алгоритми могу да сортирају огромне количине података како би идентификовали циљеве ИСИС-а који би им иначе измакли, и открили и пореметили парцеле пре него што их планери могу извести. Влада већ покушава да проучи друштвене медије да би предвидела величину онлине протеста. Нема сумње да ће стројно учење дати интелигентним аналитичарима све већу моћ да схвате богатство доступних информација у свијету. Али када та интелигенција постане основа на којој се предузима смртоносни штрајк, етичка питања постају сложенија, чак и ако изгледају једноставно.

Иако је Рад брзо изјавио да Пентагон неће “делегирати смртоносну власт на машину”, која остаје крај игре. У међувремену, људи ће остати "у петљи", као што иде жаргон. Али пошто сватко тко је погледао иПхоне за временски извјештај када стоји поред прозора зна, односи које имамо с нашим уређајима и софтвером нису једноставни. Проблематично смо лаковјерни и лако ометени проблемима корисничког сучеља.

"Аутоматска пристрасност", тенденција да се људи одгађају према машинама, представља јасну и све присутнију опасност. Примјер за илустрацију овог феномена је када вам телефон каже да путујете путом за који знате да је погрешан, али ипак то чините, претпостављајући да телефон мора знати нешто што ви не знате. То је чест проблем у невојним контекстима. Међутим, чини се да је и оно што Пентагон приближава, међутим, извјештаји о пријетњама састављени од умјетне интелигенције. Ми не знамо ништа о потенцијалној ефикасности овог програма осим да ће људима бити тешко да га имплементирају.

У документу из 2001. који се бави студентским и професионалним пилотима и аутоматизацијом, истраживачи су открили да “у сценаријима у којима су доступне тачне информације за унакрсну провјеру и откривање аутоматских аномалија, стопе грешака приближно 55% су документиране у обје популације”. да додавање додатног људског суиграча није ублажило проблем.

Исто тако, студија МИТ-а из прошле године донекле је узнемирујуће утврдила да играчи рачунара и видео игара имају "већу склоност ка аутоматизацији надмашивања". То би могло значити да што више времена проводимо гледајући у наше екране, више вјерујемо ономе што видимо. Опет, проблем није у системима које користимо, већ у начину на који их користимо. Грешка није у нашим звездама, већ у нама самима.

Велики подаци остају обећавајући. Машинско учење и даље обећава. Али када машине саветују људе, резултати су предвидљиво непредвидиви. Да ли Таи-ова трансформација у неонацистичку мизогину значи да Твиттер мрзи Јевреје и жене? Тешко је то знати, али прилично невероватно. Када не разумемо процес на који начин улазни подаци постају оутпути, ми се боримо да се рационално позабавимо резултатима. Што ставља Пентагон у занимљиву позицију. Да ли ће људи који програмирају војни софтвер за стројно учење наручити ваздушне ударе? То није начин на који ланац команде функционише, али се ланци команде запетљају када се технологија укључи.

$config[ads_kvadrat] not found