Что такое дипфейк? Все, что Вам нужно знать
- Дипфейки используют искусственный интеллект с глубоким обучением, чтобы заменить изображение одного человека другим в видео и других цифровых медиа.
- Есть опасения, что технология дипфейка может использоваться для создания фейковых новостей и вводящих в заблуждение поддельных видео.
- Вот учебник по дипфейкам — что это такое, как это работает и как его можно обнаружить.
Компьютеры все лучше и лучше моделируют реальность. Современное кино, например, в значительной степени полагается на сгенерированные компьютером декорации, декорации и персонажей вместо реальных мест и реквизита, которые когда-то были обычным явлением, и большую часть времени эти сцены практически неотличимы от реальности.
В последнее время технология дипфейков попала в заголовки газет. Последняя итерация компьютерных изображений, дипфейки создаются, когда искусственный интеллект (ИИ) запрограммирован на замену сходства одного человека другим в записанном видео.
Что такое дипфейк и как он работает?
Термин «глубокое подделка» происходит от базовой технологии «глубокого обучения», которая является формой ИИ. Алгоритмы глубокого обучения, которые учатся решать проблемы при наличии больших наборов данных, используются для замены лиц в видео и цифровом контенте для создания реалистично выглядящих поддельных медиа.
Существует несколько методов создания дипфейков, но наиболее распространенный из них основан на использовании глубоких нейронных сетей с участием автокодировщиков, использующих технику замены лица. Сначала вам нужно целевое видео, чтобы использовать его в качестве основы для дипфейка, а затем набор видеоклипов человека, которого вы хотите вставить в цель.
Видео могут быть совершенно не связаны между собой; целью может быть, например, клип из голливудского фильма, а видео человека, которого вы хотите вставить в фильм, могут быть случайными клипами, загруженными с YouTube.
Автоэнкодер — это программа искусственного интеллекта для глубокого обучения, которой поручено изучать видеоклипы, чтобы понять, как человек выглядит под разными углами и в различных условиях окружающей среды, а затем отображать этого человека на человека в целевом видео, находя общие черты.
К этому сочетанию добавляется еще один тип машинного обучения, известный как генеративно-состязательные сети (GAN), который обнаруживает и устраняет любые недостатки в дипфейках в течение нескольких раундов, что затрудняет их декодирование детекторами дипфейков.
GAN также используются в качестве популярного метода для создания дипфейков, основанного на изучении больших объемов данных, чтобы «научиться» разрабатывать новые примеры, имитирующие реальные вещи, с болезненно точными результатами.
Несколько приложений и программ упрощают создание дипфейков даже для новичков, например, китайское приложение Zao, DeepFace Lab, FaceApp (приложение для редактирования фотографий со встроенными методами искусственного интеллекта), Face Swap и недавно удаленный DeepNude, особенно опасный приложение, которое генерировало поддельные изображения обнаженных женщин.
Большое количество программного обеспечения для дипфейков можно найти на GitHub, сообществе разработчиков программного обеспечения с открытым исходным кодом. Некоторые из этих приложений используются исключительно в развлекательных целях — поэтому создание дипфейков не запрещено законом — в то время как другие гораздо чаще используются злонамеренно.
Многие эксперты считают, что в будущем дипфейки станут гораздо более изощренными по мере дальнейшего развития технологий и могут представлять более серьезные угрозы для общества, связанные с вмешательством в выборы, политической напряженностью и дополнительной преступной деятельностью.
Как используются дипфейки?
Хотя возможность автоматического переключения лиц для создания правдоподобного и реалистично выглядящего синтетического видео имеет несколько интересных безобидных применений (например, в кино и играх), это, очевидно, опасная технология с некоторыми неприятными приложениями. Фактически одним из первых реальных применений дипфейков было создание синтетической порнографии.
В 2017 году пользователь Reddit под ником «deepfakes» создал порнофорум, на котором снимались актеры, меняющие лица. С тех пор порно (особенно порно мести) неоднократно появлялось в новостях, нанося серьезный ущерб репутации знаменитостей и видных деятелей. Согласно отчету Deeptrace, порнография составила 96% дипфейковых видео, найденных в сети в 2019 году.
Видео Deepfake также использовалось в политике. Например, в 2018 году бельгийская политическая партия опубликовала видео, на котором Дональд Трамп произносит речь, призывающую Бельгию выйти из Парижского соглашения по климату. Однако Трамп так и не выступил с этой речью — это был дипфейк. Это был не первый случай использования дипфейков для создания вводящих в заблуждение видеороликов, и технически подкованные политические эксперты готовятся к будущей волне фейковых новостей с убедительно реалистичными дипфейками.
Конечно, не все дипфейковые видео представляют реальную угрозу для демократии. Нет недостатка в дипфейках, используемых для юмора и сатиры, таких как чипы, которые отвечают на вопросы, например, как бы выглядел Николас Кейдж, если бы он появился в «В поисках утраченного ковчега»?
Дипфейки — это только видео?
Дипфейки не ограничиваются только видео. Дипфейк-аудио — это быстрорастущая область, имеющая огромное количество приложений.
Реалистичные звуковые дипфейки теперь можно создавать с помощью алгоритмов глубокого обучения, используя всего несколько часов (или, в некоторых случаях, минут) аудио человека, чей голос клонируется, и как только модель голоса будет создана, этого человека можно сделать сказать что-либо, например, когда в прошлом году для совершения мошенничества использовалась поддельная аудиозапись генерального директора .
Глубокий звук имеет медицинское применение в виде замены голоса, а также в дизайне компьютерных игр — теперь программисты могут позволить внутриигровым персонажам говорить что угодно в режиме реального времени, а не полагаться на ограниченный набор сценариев, которые были записаны до того, как игра была опубликовано.
Как обнаружить дипфейк
По мере того, как дипфейки становятся все более распространенными, обществу, скорее всего, придется адаптироваться к обнаружению дипфейковых видео точно так же, как онлайн-пользователи теперь настроены на обнаружение других видов фейковых новостей.
Часто, как в случае с кибербезопасностью, необходимо появление новых технологий дипфейков, чтобы обнаружить и предотвратить их распространение, что, в свою очередь, может вызвать порочный круг и потенциально причинить больше вреда.
Есть несколько индикаторов, которые выдают дипфейки:
- Нынешние дипфейки имеют проблемы с реалистичной анимацией лиц, и в результате получается видео, в котором субъект никогда не моргает или моргает слишком часто или неестественно. Однако после того, как исследователи из Университета Олбани опубликовали исследование, обнаружившее аномалию моргания, были выпущены новые дипфейки, у которых больше не было этой проблемы.
- Ищите проблемы с кожей или волосами, или лица, которые кажутся более размытыми, чем окружающая среда, в которой они расположены. Фокус может выглядеть неестественно мягким.
- Освещение выглядит неестественно? Часто алгоритмы дипфейка сохраняют освещение клипов, которые использовались в качестве моделей для поддельного видео, что плохо соответствует освещению в целевом видео.
- Звук может показаться не соответствующим человеку, особенно если видео было сфальсифицировано, а исходный звук был обработан не так тщательно.
Борьба с дипфейками с помощью технологий
Хотя дипфейки со временем будут становиться все более реалистичными по мере совершенствования методов, мы не совсем беззащитны, когда дело доходит до борьбы с ними. Ряд компаний разрабатывают методы обнаружения дипфейков, некоторые из них являются стартапами.
Sensity, например, разработала платформу обнаружения, похожую на антивирус для дипфейков, которая предупреждает пользователей по электронной почте, когда они смотрят что-то, что несет контрольные отпечатки синтетических носителей, созданных искусственным интеллектом. Sensity использует те же процессы глубокого обучения, что и для создания поддельных видео.
Operation Minerva использует более простой подход к обнаружению дипфейков. Алгоритм этой компании сравнивает потенциальные дипфейки с известным видео, которое уже было «цифровым образом снято». Например, он может обнаруживать примеры порнографии мести, распознавая, что дипфейк-видео — это просто модифицированная версия существующего видео, которое уже было каталогизировано Operation Minerva.
А в прошлом году Facebook организовал конкурс Deepfake Detection Challenge, открытую совместную инициативу, направленную на поощрение создания новых технологий для обнаружения дипфейков и других видов манипулируемых медиа. В конкурсе были разыграны призы до 500 000 долларов.