А.И. Истраживачки институт показује како креирати одговорне алгоритме

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Истраживачки институт АИ Нов објавио је у среду нове препоруке за одговорну имплементацију алгоритама у јавној сфери.Њихов савет је усмерен на радну групу коју је формирао Градски савет Њујорка у јануару и која проучава употребу вештачке интелигенције од стране владе.

АИ извештај сада, Алгоритамске процене утицаја: ка одговорној аутоматизацији у јавним агенцијама, наглашава потребу за транспарентношћу када је у питању имплементација алгоритама. Алгоритми имају огроман утицај на наш свакодневни живот, али њихов утицај понекад остаје непримећен. Због тога што се пеку у инфраструктури друштвених медија и видео платформи, на пример, лако је заборавити да програми често одређују који садржај се гура корисницима интернета. Тек када нешто крене по злу, као што је видео о теорији уроте, који стиже на врх листе трендова на ИоуТубе-у, испитујемо аутоматизоване процедуре одлучивања које обликују онлине искуства.

А алгоритми нису ограничени на интернет платформе. Владине институције све више се ослањају на алгоритме, у доменама од образовања до кривичног правосуђа. У идеалном свету, алгоритми би уклонили људску пристрасност из тешких одлука, као што је утврђивање да ли би затворенику требало одобрити условни отпуст. У пракси, међутим, алгоритми су једнако ефикасни као и људи који их израђују.

На пример, истрага од стране ПроПублица показали су да су алгоритми за процену ризика који се користе у судницама били расно пристрасни. Да би ствари биле још горе, многи од алгоритама који се користе у јавном сектору су у приватном власништву, а неке компаније одбијају да дијеле код који лежи у основи њиховог софтвера. Због тога је немогуће схватити зашто ти такозвани алгоритми "црне кутије" враћају одређене резултате.

Једно потенцијално рјешење које нуди АИ сада? Алгоритамске процене утицаја. Ове процјене успостављају норму потпуне транспарентности, што значи да владине агенције које користе алгоритме требају објавити када и како их користе. "Овај захтјев сам по себи би отишао дуг пут према расвјетљавању технологија које се користе како би служиле јавности и гдје би се требало фокусирати на истраживање одговорности", наводи се у извјештају.

Политика отворености која окружује алгоритме такође би отворила врата грађанима да проуче и протестују против њихове употребе. Да ли желите да вам алгоритам даје процену ризика на основу фактора који су ван ваше контроле, посебно када тај резултат може да помогне да се утврди да ли идете у затвор? Можда да, можда не. У сваком случају, важно је тачно знати које се варијабле анализирају алгоритмом.

Поред тога, АИ Сада препоручује постављање правног стандарда за људе који ће лобирати против непоштених алгоритама.

На пример, ако агенција не обелодани системе који разумно спадају у делокруг оних који доносе аутоматизоване одлуке, или ако дозвољава продавцима да праве захтјеве за тајне пословне тајне и тако блокира значајан приступ систему, јавност треба да има шансу да изрази забринутост због орган за надзор агенција, или директно у суду, ако је агенција одбила да исправи ове проблеме након периода јавног коментара.

Препоруке се у суштини своди на један свеобухватни мандат: ако користите алгоритме, немојте бити сумњиви.

Прочитајте комплетан извештај овде.

$config[ads_kvadrat] not found