Google научит искусственный интеллект определять дипфейки

Google вышла на «тропу войны» с дипфейками. IT-корпорация создаст базу фальшивых видео, с помощью которой алгоритмы научатся автоматически определять фейковые записи.

Развитие технологий ставит перед обществом новые вопросы безопасности. Речь не только о финансовом или информационном хакинге: репутация и частная жизнь пользователей тоже могут оказаться под угрозой. Одним из главных инструментов, создающих предпосылки для новой киберпреступности, являются дипфейки – видеоролики, создаваемые с помощью искусственного интеллекта. Используя возможности машинного обучения, алгоритм анализирует множество фотографий, а затем, используя полученные данные, подменяет лица на видеороликах.

Начавшись как развлечение маргиналов, нередко помеченное категорией «18+», дипфейк-технология быстро переросла масштаб шутки. Чтобы понять серьезность происходящего, достаточно вспомнить дипфейк, опубликованный BuzzFeed, где «Барак Обама» оскорбляет действующего президента США Дональда Трампа. Видео, созданное с помощью программы Fakeapp и графического редактора Adobe After Effects, выглядит «как настоящее» и наглядно демонстрирует опасный потенциал дипфейков. Диапазон их использования в перспективе просто огромен – от фейковых новостей до репутационных роликов, поддельных стартапов и несуществующих квартир на AirbnB.

Самая большая опасность дипфейков состоит в том, что технологии создания таких видео находятся в открытом доступе, а результат порой невозможно идентифицировать визуально. В попытке остановить растущую угрозу, специалисты Google решили бить дипфейки их же оружием. Распознавать видео, созданные с помощью ИИ, будет сам искусственный интеллект.

Для этого программисты загрузили в датасет Deep Fake Detection 363 оригинальных ролика с участием добровольцев, и на их основе создали более 3 тысяч дипфейков. Этой базы будет достаточно для того, чтобы начать обучение алгоритмов. В дальнейшем датасет будет пополняться новым материалом для изучения – это поможет максимально автоматизировать процесс распознавания и свести число ошибок к нулю, заявляют специалисты Google.

ИИ всё лучше работает с изображениями, следовательно, всё лучше справляются со своей работой дипфейк-алгоритмы. Специалисты опасаются, что скоро нельзя будет на глаз определить фейковые ролики, поэтому развивают проекты для их автоматического распознавания.

Для датасета Deep Fake Detection компании создали 363 оригинальных ролика, в которых снялись добровольцы. На их основе сделали больше 3 тысяч дипфейк-роликов с привлечением алгоритмов Deepfakes, Face2Face, FaceSwap и NeuralTextures. Набор Deep Fake Detection стал частью проекта FaceForensics++, который изучает работу алгоритмов для подмены лиц.

Компании говорят, что будут пополнять датасет. Правда, доступен он только исследователям и по специальному запросу.Ранее Facebook для борьбы с фейковыми видео объединился с Microsoft и учеными из Partnership on AI. Стороны объявили о конкурсе Deepfake Detection Challenge на лучшее решение по обнаружению deepfakes.
Источник: https://iot.ru/bezopasnost/google-sozdaet-deepfake-chtoby-borotsya-s-deepfake
Задать вопрос
Заполните форму, и наши эксперты ответят вам