Deepfake – переписывание реальности

Deepfake – переписывание реальности

Дезинформация – самый популярный инструмент геополитического саботажа. Если раньше для создания фейкового видео требовался большой опыт и миллионы долларов, сегодня технология Deepfake (глубинное обучение), основанная на искусственном интеллекте (ИИ), позволяет полностью изменить лицо человека с помощью обычного ноутбука.

Хотите повлиять на выборы, разрушить карьеру и репутацию соперника или спровоцировать этническое насилие? Сложно представить более эффективный инструмент, чем поддельное видео, которое выглядит как настоящее и мгновенно распространяется через Facebook, WhatsApp или Twitter, быстрее, чем люди поймут, что их обманули.

Благодаря достижениям в области ИИ, не представляет никаких проблем поменять местами лица в видеоролике, а используя небольшие дополнительные ноу-хау, заставить политика, главу компании или личного врага сказать или сделать все что угодно.

Приложения Snapchat,  StyleGAN от Nvidia или FaceApp, разработанное российской компанией Wireless Lab, вызывают множество споров. Они позволяют создавать потрясающие визуальные эффекты для фильмов и видеоигр или редактировать изображения ради забавы, добавляя улыбку и удаляя возрастные недостатки, и даже менять пол. В то же время, такое ПО может использоваться для менее безобидных целей – распространения фейковых новостей, порнографических видео и фотореалистичной пропаганды.

К счастью, большинство deepfake-подделок все еще имеют изъяны и выглядят довольно странно. Мерцающие лица, несимметричные украшения и уши, странный оттенок кожи и нехарактерные цветовые пятна на фоне делают их легко различимыми. Однако эксперты в области ИИ активно работают над тем, чтобы устранить недостатки технологии, максимально упростить создание и усложнить распознавание поддельных видеороликов.

Американские политики особенно обеспокоены распространением убедительных фейковых новостей и дезинформации в преддверии президентских выборов 2020 года. Комитет по разведке Палаты представителей Конгресса США запросил у самых популярных социальных сетей Facebook, Google и Twitter информацию о методах предотвращения распространения фальшивок, однако, ни одна из компаний пока не предложила эффективного решения.

DARPA, исследовательское агентство США, также пытается бороться с ростом цифровых манипуляций. Еще в 2016 году, когда о deepfake никто не слышал, организация запустила программу под названием Media Forensics (MediFor) и привлекла экспертов по цифровой криминалистике для разработки автоматизированных инструментов по обнаружению поддельных изображений.

Сегодня MediFor, в основном, сосредоточен на выявлении deepfake-подделок. Стоит отметить, что создание фейков с помощью инновационных технологий намного проще, чем их обнаружение, поскольку современные ИИ-алгоритмы способны автоматически сглаживать недостатки, которые были присущи ранним моделям. Сделать методику синтеза изображений идеальной – вопрос времени и ресурсов.

А пока ученые Вашингтонского университета предлагают воспользоваться сайтом WhichFaceIsReal.com для распознавания поддельных фотографий, созданных с помощью ИИ.

Оставьте свой комментарий