Пикелатед Имагес се не подударају са Цорнелл Тецх-овим препознавањем лица А.И.

$config[ads_kvadrat] not found

Гармонистка Галина Титова прекрасное исполнение

Гармонистка Галина Титова прекрасное исполнение
Anonim

Три истраживача из Цорнелл Тецх-а у Нев Иорку открили су да замагљене и пикселиране слике не одговарају умјетној интелигенцији. Мада застареле слике остају неразумљиве људским очима, и чини се да штите њихов осетљив садржај, неуронске мреже често могу тачно рећи ко је ко на оригиналној слици.

Другим речима, људи више нису лакмус тест. Више не можемо питати само да ли нешто поражава све људске мозгове. А.И.с - чак и једноставне А.И. - могу надмашити људе, па тако и њихово поразивање мора увијек бити дио једнаџбе.

Истраживање истраживача компаније Цорнелл Тецх било је фокусирано на тестирање алгоритама за очување приватности, који замагљују или пикселе одређене информације или делове слика. Раније смо поверили софтвер или алгоритме за очување приватности имплицитно, мислећи да су информације које су прикривене биле безбедне јер не хуман могао је рећи ко стоји иза дигиталног вела. Студија показује да је та ера истекла, аи методе анонимизације неће трајати дуго. Неуронске мреже, задовољене овим мјерама приватности, нису негативне.

Рицхард МцПхерсон је др.сц. Кандидат за информатику на Тексашком универзитету у Аустину, који је пратио свог професора, Виталија Шматикова, у компанији Цорнелл Тецх. Заједно, заједно са Резом Схокри, показали су да једноставне неуронске мреже могу да разоткрију уобичајене технике обфускације слике. Техника је релативно несофистицирана, што чини откриће забрињавајућим: то су уобичајене, приступачне методе и оне су могле побиједити индустријске норме за обфусцацију.

Неуралне мреже су велике, слојевите структуре чворова, или умјетних неурона, које опонашају основну структуру мозга. Они су “засновани на поједностављеном разумијевању како неурони раде”, каже МцПхерсон Инверсе. "Дајте му мало улаза, а неурон или пали или не пали."

Они су такође способни да “уче”, грубом дефиницијом појма. Ако покажете нечистом (потпуно необразованом) човеку нешто „црвено“, и реците им да изаберу све „црвене“ ствари из кантице, прво ће се борити, али ће се временом побољшати. Исто тако и са неуронским мрежама. Машинско учење само значи подучавање рачунара да бира „црвене“ ствари, на пример, из виртуелне кашике разноврсних ствари.

Тако су МцПхерсон и компанија обучавали своју неуронску мрежу. „У нашем систему стварамо модел - архитектуру неуронских мрежа, структурирани скуп ових вештачких неурона - и онда им дајемо велику количину замрачених слика“, каже он. "На примјер, могли бисмо им дати стотину различитих слика Царол које су биле пикселиране, затим стотину различитих Бобових слика које су биле пикселиране."

Затим истраживачи означавају ове пикселиране слике и при томе говоре моделу који је на свакој слици. Након обраде овог скупа података, мрежа функционално зна како изгледа Пикелатед Боб и Пикелатед Царол. "Онда му можемо дати другачију слику Боба или Царол, без ознаке", објашњава МцПхерсон, "и може да претпостави и каже:" Мислим да је ово Боб са 95 одсто тачности."

Модел не реконструише замагљену слику, али чињеница да је у стању да побиједи најчешће и раније најпоузданије методе анонимизације је само по себи узнемирујућа. "Они су у стању да схвате шта се збуњује, али не знају како је првобитно изгледало", каже МцПхерсон.

Али неуронске мреже су још увек у стању да то ураде далеко боље од људи. Када су слике највише обфусциране коришћењем једне стандардне технике, систем је још увек био преко 50% тачан. За нешто мање замагљене слике, систем се показао изванредним, са тачношћу од око 70 процената. Норма ИоуТубе-а за замућивање лица је потпуно неуспешна; чак и најне замагљеније слике су избачене из неуронске мреже, што се показало 96% тачним.

Друге претходно необрађене технике, анонимност података и текстова су такође непоуздане. "Било је посла током љета који је гледао на анонимизацију текста користећи пикселацију и замућење, и показао да су и они у стању да буду сломљени", каже МцПхерсон. И други начини који су некада веровали могу бити на путу да изађу из врата. Иако не познаје технике уметања гласа као што су оне које се користе за анонимне ТВ интервјуе, он се не би изненадио ако би неуронске мреже могле разбити анонимност.

МцПхерсоново откриће, дакле, доказује да „методе очувања приватности које смо имали у прошлости заправо нису довеле до шмркања, посебно модерним техникама стројног учења.“ Другим ријечима, ми се кодирамо у ирелевантност, обучавајући машине да надмашите нас у свим областима.

"Како снага машинског учења расте, овај компромис ће се померити у корист противника", написали су истраживачи.

$config[ads_kvadrat] not found