...
🤳 Блог новин Android, присвячений порадам експертів, новинам, оглядам, телефонам Android, програмам, інструкціям, планшетам і мобільним телефонам.

Що таке Deepfake? Все, що вам потрібно знати

4
  • Deepfakes використовує штучний інтелект глибокого навчання, щоб замінити схожість однієї людини на іншу у відео та інших цифрових медіа. 
  • Є занепокоєння, що технологія deepfake може бути використана для створення фейкових новин і підроблених відео, що вводять в оману.
  • Ось приклад про глибокі фейки – що це таке, як це працює та як його можна виявити.

Комп'ютери все краще моделюють реальність. Сучасне кіно, наприклад, значною мірою покладається на створені комп’ютером декорації, декорації та персонажі замість практичних локацій та реквізиту, які колись були звичними, і в більшості випадків ці сцени майже не відрізняються від реальності. 

Останнім часом технологія deepfake потрапила в заголовки газет. Остання ітерація комп’ютерних зображень, глибокі фейки, створюються, коли штучний інтелект (ШІ) запрограмований на заміну подібності однієї людини на іншу у записаному відео.

Що таке дипфейк і як він працює?

Термін «deepfake» походить від базової технології «глибокого навчання», яка є формою ШІ. Алгоритми глибокого навчання, які навчають самостійно вирішувати проблеми, коли надаються великі набори даних, використовуються для заміни облич у відео та цифровому контенті, щоб створити реалістичні підроблені медіа. 

Існує кілька методів створення глибоких фейків, але найпоширеніший покладається на використання глибоких нейронних мереж із залученням автокодерів, які використовують техніку заміни обличчя. Спочатку вам потрібно цільове відео, щоб використовувати його як основу для дипфейку, а потім набір відеокліпів людини, яку ви хочете вставити в ціль. 

Відео може бути абсолютно не пов’язаним; метою може бути, наприклад, кліп з голлівудського фільму, а відео людини, яку ви хочете вставити у фільм, можуть бути випадковими кліпами, завантаженими з YouTube. 

Автокодер — це програма для глибокого навчання з штучним інтелектом, якій поставлено завдання вивчати відеокліпи, щоб зрозуміти, як виглядає людина з різних ракурсів та умов навколишнього середовища, а потім зіставляти цю людину з людиною в цільовому відео, знаходячи спільні риси. 

До суміші додається інший тип машинного навчання, відомий як генеративні змагальні мережі (GAN), який виявляє та покращує будь-які недоліки в дипфейку протягом кількох раундів, що ускладнює їх декодування детекторам глибоких фейків. 

GAN також використовуються як популярний метод для створення глибоких фейків, покладаючись на дослідження великих обсягів даних, щоб «навчитися» розробляти нові приклади, які імітують реальні речі, з надзвичайно точними результатами. 

Деякі програми та програмне забезпечення дозволяють легко створювати глибокі фейки навіть для початківців, наприклад, китайський додаток Zao, DeepFace Lab, FaceApp (який є програмою для редагування фотографій із вбудованими методами штучного інтелекту), Face Swap і після видалення DeepNude, особливо небезпечний додаток, який створював підроблені зображення оголених жінок. 

На GitHub, спільноті з відкритим кодом для розробки програмного забезпечення, можна знайти велику кількість програмного забезпечення для глибоких фейків. Деякі з цих додатків використовуються виключно для розважальних цілей — саме тому створення глибоких фейків не заборонено законом — тоді як інші, швидше за все, будуть використовуватися зловмисно. 

Багато експертів вважають, що в майбутньому дипфейки стануть набагато складнішими в міру подальшого розвитку технологій і можуть спричинити серйозніші загрози для суспільства, пов’язані з втручанням у вибори, політичною напругою та додатковою злочинною діяльністю.

Як використовуються дипфейки?

Хоча можливість автоматично змінювати обличчя для створення достовірного та реалістичного синтетичного відео має кілька цікавих безпечних застосувань (наприклад, у кіно та іграх), це, очевидно, небезпечна технологія з деякими проблемними додатками. Фактично, одним із перших реальних застосувань для дипфейків було створення синтетичної порнографії.

У 2017 році користувач Reddit на ім’я «deepfakes» створив форум для порнографії, на якому були представлені змінені обличчям актори. З того часу порно (зокрема порно помсти) неодноразово потрапляло в новини, серйозно завдаючи шкоди репутації знаменитостей і видатних діячів. Згідно зі звітом Deeptrace, у 2019 році 96% фейкових відео, знайдених в Інтернеті, становила порнографія.

Deepfake відео також використовували в політиці. Наприклад, у 2018 році бельгійська політична партія оприлюднила відео промови Дональда Трампа із закликом до Бельгії вийти з Паризької кліматичної угоди. Однак Трамп ніколи не виступав із цією промовою – це був глибокий фейк. Це було не перше використання дипфейку для створення оманливих відео, і технічно підковані політичні експерти готуються до майбутньої хвилі фейкових новин з переконливо реалістичними дипфейками.

Звичайно, не всі дипфейкові відео становлять екзистенційну загрозу для демократії. Не вистачає дипфейків, які використовуються для гумору та сатири, наприклад фішок, які відповідають на запитання, як-от, як би виглядав Ніколас Кейдж, якби він з’явився у «Raiders of the Lost Ark»?

Чи дипфейки лише відео?

Deepfakes не обмежується лише відео. Deepfake audio – це сфера, яка швидко розвивається, і має величезну кількість застосувань. 

Реалістичні аудіо-підробки тепер можна робити за допомогою алгоритмів глибокого навчання лише за кілька годин (або в деяких випадках, хвилин) аудіо людини, чий голос клонується, і після створення моделі голосу цю людину можна створити. сказати будь-що, наприклад, коли минулого року для шахрайства використовували підроблені аудіо генерального директора .

Deepfake Audio має медичне застосування у вигляді заміни голосу, а також у дизайні комп’ютерних ігор – тепер програмісти можуть дозволити персонажам в іграх говорити будь-що в режимі реального часу, а не покладатися на обмежений набір сценаріїв, які були записані до початку гри. опубліковано. 

Як виявити дипфейк

Оскільки дипфейки стають все більш поширеними, суспільству, швидше за все, доведеться адаптуватися до виявлення глибоких фейків так само, як онлайн-користувачі тепер налаштовані на виявлення інших видів фейкових новин. 

Часто, як у випадку з кібербезпекою, має з’явитися більше технологій глибокого фейку, щоб виявити та запобігти його поширенню, що, у свою чергу, може спровокувати порочне коло та потенційно завдати більше шкоди. 

Існує кілька індикаторів, які видають глибокі підробки:

  • Поточні дипфейки мають проблеми з реалістичною анімацією облич, і в результаті виходить відео, на якому суб’єкт ніколи не моргає або блимає занадто часто або неприродно. Однак після того, як дослідники з Університету Олбані опублікували дослідження, яке виявляло аномалію мигання, були випущені нові дипфейки, які більше не мали цієї проблеми.
  • Шукайте проблеми зі шкірою або волоссям або обличчя, які здаються більш розмитими, ніж середовище, в якому вони знаходяться. Фокус може виглядати неприродно м’яким. 
  • Освітлення виглядає неприродно? Часто алгоритми deepfake зберігають освітлення кліпів, які були використані як моделі для підробленого відео, що погано відповідає освітленню цільового відео. 
  • Аудіо може не збігатися з людиною, особливо якщо відео було підробленим, але оригінальним аудіофайлом маніпулювали не так ретельно. 

Боротьба з дипфейками за допомогою технологій

Хоча дипфейки з часом стануть реалістичнішими, коли техніка вдосконалюється, ми не зовсім беззахисні, коли справа доходить до боротьби з ними. Ряд компаній розробляють методи виявлення дипфейків, деякі з них є стартапами. 

Sensity, наприклад, розробила платформу виявлення, схожу на антивірус для глибоких фейків, який сповіщає користувачів електронною поштою, коли вони дивляться щось, що має відбитки пальців синтетичних носіїв, створених штучним інтелектом. Sensity використовує ті самі процеси глибокого навчання, що й для створення підроблених відео.

Операція «Мінерва» використовує більш простий підхід до виявлення дипфейків. Алгоритм цієї компанії порівнює потенційні дипфейки з відомим відео, на якому вже зняли цифрові відбитки пальців. Наприклад, він може виявити приклади порнографії помсти, визнавши, що глибоке фейкове відео є просто модифікованою версією існуючого відео, яке вже внесено в каталог Операції Мінерва.

А минулого року Facebook провів Deepfake Detection Challenge, відкриту спільну ініціативу, спрямовану на заохочення створення нових технологій для виявлення глибоких фейків та інших видів маніпулюваних медіа. У конкурсі були призи в розмірі до 500 000 доларів США.

Джерело запису: www.businessinsider.com

Цей веб -сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що з цим все гаразд, але ви можете відмовитися, якщо захочете. Прийняти Читати далі