Deepfakes не са съвпадение за машинно обучение - Ето защо

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net

Съдържание:

Anonim

Нова форма на дезинформация се очаква да се разпространи чрез онлайн общностите, тъй като средносрочните предизборни кампании през 2018 г. се затоплят. Наричани „дълбоки глупости“ след псевдонимния онлайн акаунт, който популяризира техниката - която може да е избрала името си, защото процесът използва технически метод, наречен „дълбоко учене“ - тези фалшиви видеоклипове изглеждат много реалистично.

Досега хората са използвали видеоклипове с дълбоки глупости в порнографията и сатирата, за да изглежда, че известни хора правят неща, които нормално не биха. Но по време на сезона на кампанията ще се появят почти определени глупости, които претендират да изобразяват кандидатите, които казват, че нещата няма да са.

Тъй като тези техники са толкова нови, хората изпитват трудности да разкажат разликата между истинските видеоклипове и видеоклиповете с дълбоко глупости. Моята работа, с моя колега Минг-Чинг Чанг и нашия доктор. Ученикът Юезун Ли е намерил начин надеждно да каже истински видеоклипове от видеоклипове с дълбоко гмуркане. Това не е постоянно решение, защото технологиите ще се подобрят. Но това е началото и предлага надежда, че компютрите ще могат да помогнат на хората да кажат истината от измислицата.

Каква е „дълбока фалшиво“, така или иначе?

Осъществяването на видео с дълбоко изображение е много подобно на превода между езиците. Услуги като Google Translate използват машинно обучение - компютърен анализ на десетки хиляди текстове на различни езици - за откриване на текстови модели, които използват за създаване на превода.

Deepfake алгоритмите работят по един и същи начин: те използват система от машинно обучение, наречена дълбока невронна мрежа, за да изследват движенията на лицето на един човек. След това те синтезират изображения на лицето на друг човек, правейки аналогични движения. Правенето на това ефективно създава видеоклип на целевия човек, който изглежда, че прави или казва нещата, които човекът източник е направил.

Преди да могат да работят правилно, дълбоките невронни мрежи се нуждаят от много информация за източниците, като например снимки на лицата, които са източник или цел на представяне. Колкото повече изображения се използват за трениране на алгоритъм за дълбоко факинг, толкова по-реалистично ще бъде цифровото представяне.

Открива мигането

Все още има недостатъци в този нов тип алгоритъм. Едно от тях е свързано с това как симулираните лица мигат - или не. Здрави възрастни хора мигат някъде между две и десет секунди и едно мигане отнема между една десета и четири десети от секундата. Това би било нормално да се види във видеоклип на човек, който говори. Но това не е това, което се случва в много видеоклипове с дълбоко флейки.

Когато алгоритъмът за дълбоко фиксиране е обучен върху изображения на лице на човек, това зависи от снимките, които са достъпни в интернет и могат да се използват като данни за обучение. Дори и за хора, които често се снимат, няколко снимки са достъпни онлайн, показващи затворени очи. Не само, че снимките са толкова редки - защото очите на хората са отворени през повечето време - но фотографите обикновено не публикуват изображения, при които очите на основните участници са затворени.

Без тренировъчни образи на хора, които мигат, дълбоките алгоритми е по-малко вероятно да създават лица, които мигат нормално.Когато изчисляваме общата скорост на мигане и сравняваме това с естествения обхват, открихме, че героите в дълбокофайлните видеоклипове мигат много по-рядко в сравнение с реалните хора. Нашите изследвания използват машинно обучение, за да изследват отварянето и затварянето на очите в видео.

Виж също: Холивуд не издава азиатско-американски звезди, но A.I. Машинно обучение може

Това ни дава вдъхновение за откриване на видеоклипове с дълбоки глупости. Впоследствие разработваме метод за откриване, когато лицето във видеоклипа мига. За да бъде по-конкретен, той сканира всеки кадър от въпросния видеоклип, открива лицата в него и след това локализира очите автоматично. След това се използва друга дълбока невронна мрежа, за да се определи дали откритото око е отворено или затворено, използвайки външния вид на очите, геометричните му характеристики и движението.

Знаем, че работата ни се възползва от недостатъка в наличните данни за обучение на дълбоко рискови алгоритми. За да избегнем падането на подобен недостатък, ние обучихме нашата система на голяма библиотека от изображения на отворени и затворени очи. Изглежда, че този метод работи добре и в резултат на това постигнахме над 95-процентно ниво на откриване.

Това, разбира се, не е последната дума за откриване на дълбоки котки. Технологията се подобрява бързо и конкуренцията между генерирането и откриването на фалшиви видеоклипове е аналогична на игра на шах. По-специално, мигането може да се добави към видеоклиповете с дълбоки флейки чрез включване на изображения на лицето със затворени очи или използване на видео последователности за обучение. Хората, които искат да объркат обществеността, ще получат по-добри резултати при изготвянето на фалшиви видеоклипове - а ние и другите в технологичната общност ще трябва да продължим да откриваме начини да ги откриваме.

Тази статия първоначално е била публикувана на The Conversation by Siwei Lyu. Прочетете оригиналната статия тук.

$config[ads_kvadrat] not found