Технология Deepfake впервые получила известность в декабре 2017 года, когда человек под псевдонимом «DeepFakes» показал, как методика глубокого обучения ИИ, основанная на нейронной сетевой компьютерной архитектуре, позволяет внедрять лица знаменитостей в кадры порнографического видео.
Подобная технология опирается на метод «генеративно-состязательных сетей» (generative adversarial networks - GAN). Одна сеть учится выявлять закономерности в изображении или видео, чтобы воссоздать, скажем, лицо какой-либо знаменитости. Вторая сеть действует в качестве проницательного зрителя, пытаясь выяснить, является ли подлинным данное изображение или видеокадр, либо их можно считать искусственной подделкой.
Эксперты проводили исследование технологии глубокого обучения, используемой для видео Deepfake. Как показала работа ученых, возможна не только замена лица — технологии цифровой обработки видео и аудио позволяют имитировать внешний вид и голос людей для того, чтобы создать аналоги цифровых марионеток. Исследователи Стэнфордского университета недавно представили некоторые из наиболее реалистичных примеров на сегодняшний день в своей статье «Deep Video Portraits», которая будет представлена на ежегодной конференции SIGGRAPH 2018 по компьютерной графике в Ванкувере с 12 по 16 августа.
Скучающие в интернете массы пользователей ищут развлечения и могут вызвать еще больше проблем, если технология Deepfake станет широкодоступной. Государственные подразделения кибербезопасности, отслеживающие иностранных хакеров и противодействующие им, могут оказаться беспомощными в условиях наводнения социальных сетей видео с Deepfake.
«Я думаю, что люди, которые просто забавляются, в совокупности более опасны, чем отдельные злоумышленники», - говорит Джек Кларк, директор по стратегии и коммуникациям в OpenAI.
Эта угроза настолько реальна, что DARPA финансирует проект по криминалистике, направленный на поиск автоматического заслона для видео Deepfake, а также вводящей в заблуждение цифровой информации.
Комментарии
(0) Добавить комментарий