Астронавты "Аполлона-11" погибли, а Никсон прочел им некролог. На что еще способны дипфейки?

"Пьяный" спикер конгресса США Нэнси Пелоси, Барак Обама, обзывающий Трампа, и президент Никсон, объявляющий о крушении "Апполлона-11". Это не шутка и не заголовки из "желтых" газет. Это дипфейки — искусные видео-подделки, созданные искусственным интеллектом.

Думаете, что сможете отличить фейковое видео от настоящего? Специалисты Центра прогрессивной виртуальной среды Массачусетского технологического университета в этом не уверены. Чтобы продемонстрировать возможности нейросетей сетей в области генерирования контента и заодно раскрыть опасный потенциал дипфейков, разработчики создали портал "По случаю лунной катастрофы" ("In Event of Moon Disaster".)

Провокационный проект посвящен событиям 16-24 июля 1969 года, когда пилотируемый космический корабль "Апполлон-11" высадился на Луне. Экспедиция, как известно, завершилась благополучным приземлением экипажа. Однако на видео, опубликованном MIT, президент Никсон выступает перед американским народом с совершенно другим заявлением.

"Сегодня Нил Армстронг и Эдвин Олдрин, отправившиеся на Луну с тем, чтобы мирно исследовать ее, с миром же упокоятся на Луне. Эти храбрецы знают, что надежды на их возвращение нет. Но они также знают, что надежда есть у всего человечества — и эта надежда сокрыта в их жертве".

Почему Никсон вдруг говорит об астронавтах так, словно они погибли?

Такая речь действительно была написана 18 июля 1969 года спичрайтером президента Уильмом Сафиром. Её подготовили по рекомендации NASA на случай, если лунный модуль не сможет выйти на связь с командным модулем. Тогда NASA пришлось бы экстренно закрыть обмен данными с астронавтами и фактически бросить их на Луне.

Разумеется, эта речь так никогда и не была произнесена. Видео с выступлением Ричарда Никсона — дипфейк. Для его создания разработчики использовали синтезированную с помощью машинного обучения речь. Чтобы получить слова "с миром упокоятся на Луне", произнесенные голосом Никсона, использовались два аудиоматериала: речь президента, посвященная "Доктрине Никсона", и та же самая речь, произнесенная голосом специально приглашенного актера. С помощью этих материалов разработчикам удалось научить ИИ переводить один голос в другой.

К подготовке видео MIT привлекла израильскую IT-компанию Canny AI. С помощью большого количества входных данных, содержащих изображение человеческих лиц, специалисты обучили ИИ "понимать" движения лица при разговоре. В качестве базового видео было взята речь Ричарда Никсона, произнесенная по случаю отставки. Затем изображение наложили на ролик, в котором актер зачитывает некролог в связи с гибелью "Аполлона-11". Искусственный интеллект наложил видео с артикуляцией актера на реальное изображение президента. Совместив это с аудиодорожкой, содержавшей синтезированную речь Никсона, исследователи получили так называемый "глубокий дипфейк".

Беспокойство специалистов MIT, связанные с массовым распространением дипфейков, подтверждают аналитики Университетского колледжа Лондона. Исследователи представили список 20 наиболее вероятных сценариев преступного использования ИИ, а затем предложили представителям отрасли оценить их по степени тяжести. На первом месте ожидаемо оказались дипфейки.

По мнению экспертов, опасность фейковых видео, созданных ИИ, заключается не только в дезинформации прессы. Поддельные ролики можно использовать в мошеннических целях — например, для того, чтобы обмануть системы безопасности банков, — и для шантажа.

"Огромная часть нашей жизни переместилась в онлайн-пространство, — комментирует доктор Мэтью Колдвил, один из соавторов исследования, — и наше поведение в цифровой среде во многом формирует нашу репутацию. К сожалению, эта цифровая среда пока что представляет собой идеальное поле для злонамеренного использования данных и использования ИИ в криминальных целях".

Дипфейки — серьезная, но, безусловно, не единственная киберугроза, подстерегающая человечество. Среди других возможных сценариев IT-преступлений эксперты Университетского колледжа Лондона называют использование беспилотных автомобилей в качестве оружия, массовый сбор информации в целях шантажа и кибератаки на "умные системы", управляемые ИИ.
"Дезинформация мировых СМИ — не новость для общества. Но использование технологий дипфейка и других способов распространения фейкового контента придает новую степень остроты этой проблеме. С помощью этого проекта мы, с одной стороны, резюмируем все "конспирологические теории", окружающие лунную миссию, с другой стремимся подчеркнуть: искусственный интеллект должен использоваться лишь с целью креативного выражения и правдивого информирования аудитории".
— доктор Фокс Харрел, профессор в сфере digital-медиа и искусственного интеллекта Центра прогрессивной виртуальной среды
Задать вопрос
Заполните форму, и наши эксперты ответят вам