А.И. Рапид Адванце би требало да буде страшно ако плаћате пажњу

$config[ads_kvadrat] not found

Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей

Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей
Anonim

Када је у питању идентификовање егзистенцијалних претњи технолошких иновација, популарна машта позива визије Терминатор, Матрица, и Ја, Робот - дистопије којима владају роботи робота који масовно експлоатишу и истребљују људе. У овим спекулативним будуцностима, комбинација супер-интелигенције и злих намера доводи компјутере до уништења или поробљавања људске расе.

Међутим, нова студија сугерира да ће то бити банална примјена А.И. то ће довести до озбиљних друштвених посљедица у наредних неколико година. Извештај - „Злонамерна употреба вештачке интелигенције“ - чији су аутори 26 истраживача и научника из елитних универзитета и технички оријентисаних истраживачких центара, оцртава начине на које постојеће А.И. технологије угрожавају нашу физичку, дигиталну и политичку сигурност. Да би се њихова студија усредоточила, истраживачка група је само гледала на технологију која већ постоји или вјероватно у наредних пет година.

Шта је студија открила: А.И. Системи ће вјероватно проширити постојеће пријетње, увести нове и промијенити њихов карактер. Теза извјештаја је да ће технолошки напредак учинити одређена недјела лакшим и вриједнијим. Истраживачи тврде да су побољшања у А.И. смањити количину ресурса и стручности потребних за спровођење неких сајбер напада, чиме се ефективно смањују препреке за криминал:

Трошкови напада могу се смањити скалабилном употребом система АИ за извршавање задатака који обично захтијевају људски рад, интелигенцију и стручност. Природни ефекат би био да се прошири скуп актера који могу извршити одређене нападе, брзину којом могу извршити те нападе и скуп потенцијалних мета.

Извештај даје четири препоруке:

1 - Доносиоци политика треба да блиско сарађују са техничким истраживачима како би истражили, спречили и ублажили потенцијалне злонамерне употребе АИ.

2 - Истраживачи и инжењери у области вештачке интелигенције треба да схвате природу свог рада са двоструком употребом озбиљно, допуштајући погрешно повезана питања да утичу на истраживачке приоритете и норме, и проактивно допиру до релевантних актера када су предвидљиве штетне апликације.

3 - Најбоље праксе треба да се идентификују у истраживачким областима са зрелијим методама за решавање проблема двоструке употребе, као што је безбедност рачунара, и увезене тамо где је то применљиво у случају АИ.

4 - Активно настојати проширити спектар заинтересованих страна и стручњака за домене који су укључени у дискусије о овим изазовима

Хов А.И. може учинити тренутне преваре паметнијима: Напримјер, напади пхисхинг-а, у којима се умјетници представљају као пријатељ пријатеља, члан породице или колега како би стекли повјерење и извукли информације и новац, већ представљају пријетњу. Али данас, они захтијевају значајно трошење времена, енергије и стручности. Као А.И. Системи се повећавају у софистицираности, неке од активности које су потребне за напад подводним пхисхингом, као што је прикупљање информација о мети, могу бити аутоматизоване. Фишер би онда могао уложити знатно мање енергије у сваки захват и циљати више људи.

И ако преваранти почну да интегришу А.И. у њиховом онлине нападу, може постати немогуће разликовати стварност од симулације. "Како се АИ развија даље, убедљиви цхатботи могу изазвати људско поверење ангажовањем људи у дужим дијалозима, а можда и визуелно маскирати се као друга особа у видео цхату", наводи се у извештају.

Већ смо видели последице машински генерисаног видеа у облику Деепфакеса. Како ове технологије постају приступачније и лакше за употребу, истраживачи се брину да ће лоши глумци ширити измишљене фотографије, видео записе и аудио датотеке. То би могло резултирати веома успјешним кампањама клевете са политичким посљедицама.

Иза тастатуре: А потенцијалне злоупотребе нису ограничене на интернет. Док се крећемо ка усвајању аутономних возила, хакери могу примијенити адверсарне примјере како би преварили аутомобиле који се сами возе у погрешном схваћању њиховог окружења. "Слика стоп знака са неколико пиксела промењена на специфичан начин, коју би људи лако препознали као слику стоп знака, ипак би се могла погрешно класификовати као нешто друго у потпуности помоћу АИ система", наводи се у извештају.

Друге пријетње укључују аутономне беспилотне летјелице с интегрираним софтвером за препознавање лица за потребе циљања, координиране ДОС нападе који опонашају људско понашање и аутоматизиране, хипер-персонализиране кампање дезинформације.

У извјештају се препоручује да истраживачи размотре потенцијалне злонамјерне апликације А.И. док развијају ове технологије. Ако се не успоставе адекватне мере одбране, онда можда већ имамо технологију да уништимо човечанство, без робота убица.

$config[ads_kvadrat] not found