unboxing turtles slime surprise toys learn colors
Преглед садржаја:
Нова форма дезинформација је спремна да се прошири путем онлине заједница у тренутку загријавања средњорочних изборних кампања 2018. године. Названи "дубоким курвама" након псеудонимног онлине рачуна који је популаризовао технику - која је можда изабрала своје име јер процес користи техничку методу названу "дубоко учење" - ови лажни видеозаписи изгледају веома реално.
До сада, људи су користили дубоки филм у порнографији и сатири како би се чинило да познати људи раде ствари које не би нормално. Међутим, током сезоне кампање појавит ће се готово извјесни дубоки лукови, који наводно указују на то да кандидати говоре ствари или да мјеста гдје прави кандидат не би.
Пошто су ове технике толико нове, људи имају проблема да кажу разлику између правих и дубоких филмова. Мој посао, са мојим колегом Минг-Чинг Чанг и нашим докторатом. ученик Иуезун Ли, нашао је начин да поуздано исприча праве видео снимке из дубоког филма. То није трајно рјешење, јер ће се технологија побољшати. Али то је почетак и нуди наду да ће компјутери моћи да помогну људима да говоре истину из фикције.
Шта је то "Деепфаке", у сваком случају?
Прављење дубоког видео снимка је слично превођењу између језика. Услуге као што је Гоогле Транслате користе машинско учење - компјутерску анализу десетина хиљада текстова на више језика - да би открили обрасце коришћења речи које користе за креирање превода.
Деепфаке алгоритми раде на исти начин: они користе тип машинског система учења који се назива дубока неуронска мрежа како би испитали кретање лица једне особе. Затим синтетишу слике лица другог лица, правећи аналогне покрете. На тај начин ефективно се ствара видео запис о циљној особи која се појављује да би урадила или рекла оно што је изворна особа урадила.
Прије него што могу правилно функционирати, дубоким неуронским мрежама је потребно пуно изворних информација, као што су фотографије особа које су извор или циљ имитације. Што се више слика користи за тренинг дубоког алгоритма, реалније ће бити дигитално представљање.
Детецтинг Блинкинг
Још увек постоје мане у овом новом типу алгоритма. Једна од њих има везе са тим како симулирана лица трепћу - или не. Здрави одрасли људи трепћу негде између сваке двије и 10 секунди, а један трептај траје између једне десетине и четири десетине секунде. То је нормално да се види на видео снимку особе која говори. Али то није оно што се дешава у многим дубоким снимцима.
Када се алгоритам дубоког хватања обучава на сликама лица особе, то зависи од фотографија које су доступне на интернету које се могу користити као подаци за обуку. Чак и за људе који се често фотографишу, неколико слика је доступно на интернету и показују затворене очи. Не само да су такве слике ретке - зато што су очи људи отворене већину времена - али фотографи обично не објављују слике на којима су очи главних субјеката затворене.
Без тренирања слика људи који трепере, дубље алгоритме су мање вероватно да ће створити лица која нормално трепћу.Када израчунамо укупну стопу трептања и упоредимо то са природним опсегом, открили смо да ликови у дубоким снимцима трепћу много рјеђе у поређењу са стварним људима. Наше истраживање користи машинско учење за испитивање отварања и затварања ока у видео записима.
Види такође: Холливоод Вон'т Цаст Цаст анд Америцан Старс, али А.И. Машинско учење може
Ово нам даје инспирацију за откривање дубоких снимака. Након тога, развијамо методу за откривање када особа у видеу трепери. Да будемо прецизнији, он скенира сваки кадар видео снимка, детектује лица у њему, а затим аутоматски проналази очи. Затим користи другу дубоку неуронску мрежу да одреди да ли је детектовано око отворено или затворено, користећи изглед ока, геометријске карактеристике и кретање.
Знамо да наш рад искориштава недостатак у доступним подацима за обучавање дубоког алгоритма. Да бисмо избегли да постанемо жртва сличне мане, тренирали смо наш систем на великој библиотеци слика отворених и затворених очију. Чини се да овај метод добро функционише, и као резултат тога, постигли смо стопу детекције преко 95%.
Ово није последња реч о откривању дубоких риба, наравно. Технологија се убрзано побољшава, а конкуренција између генерирања и откривања лажних видеа аналогна је игри шаха. Нарочито, трептање може да се дода дубоким снимцима видеа, укључујући слике лица са затвореним очима или коришћење видео секвенци за обуку. Људи који желе да збуне јавност ће добити бољи начин прављења лажних видео снимака - а ми и остали у технолошкој заједници ћемо морати да наставимо да проналазимо начине да их откријемо.
Овај чланак је првобитно објављен на Тхе Цонверсатион би Сивеи Лиу. Прочитајте оригинални чланак овде.
Учење језика у дубоком спавању није само научна фантастика
Људи су сањали да деценијама користе несвјесне сате како би научили нове вјештине. Није било великих доказа који подржавају "учење о спавању", студија објављена у часопису Цуррент Биологи сугерира да је учење спавања могуће ако је то исправно.
Јесу ли учење кодирања и учење новог језика исте ствари?
Нова апликација Лрн нема времена ни за самогласнике ни за трикове: учитајте је и зароните равно у срце њене сврхе, која вас учи да кодирате. Натхан Бернард, који је створио апликацију Цоффее Тиндер-фор-нетворкинг, крајем јула лансирао је Лрн са суоснивачем Цхираг Јаином и Логаном Бернардом. Нису им требао ...
Зашто учење о учвршћивању откључава аутономне аутомобиле за мисе
Умјесто да програмирају аутомобиле да би предвидјели сваки могући сценариј, инжењери могу програмирати аутомобиле како би научили како се кретати кроз сценарије кроз учење појачања.