Дипфейки как информационное оружие будущего

«Дипфейк — не просто поддельное видео, а видеоролик, созданный компьютерным алгоритмом из огромного количества изображений. Алгоритм учится имитировать этот контент», — так говорит эксперт по вопросам национальной безопасности Эндрю Гротто о фейковых видео в сюжете издания Associated Press.

Об этом сообщает __fg_link_0__

Эндрю Гротто считает, что в течение следующего года-двух человеку станет крайне сложно отличить реальное видео от поддельного.

Начало: Обамафейк

В этом году издание BuzzFeed совместно с режиссёром Джорданом Пилом выложили в сеть «обращение» Барака Обамы к Дональду Трампу. На видео Барак Обама называет «засранцем» нынешнего президента США. В действительности Обама вовсе не говорил таких слов. Видеоролик был сделан при помощи программ FakeApp и Adobe After Effects. BuzzFeed провели этот эксперимент, чтобы показать влияние, которое может быть достигнуто от нового вида фейков.


По словам продюсера, клип создали с помощью комбинации программ для редактирования видео, которые используют машинное обучение.

Дипфейки имитируют мимику и эмоции человека, а не только речь и действия. Эксперимент Университета Карнеги-Меллона помог понять ещё одну способность дипфейков: подделать видео можно не только с лицами людей.

В ходе эксперимента четыре сотрудника университета — Ааюш Бэнсал, Шугао Ма, Дева Раманан и Язер Шейх улучшили конструкцию создания дипфейков. Учёные назвали разработку Recycle-GAN. На презентации проекта учёные показали превосходство Recycle-GAN над предыдущей программой Cycle-GAN, который мог подделывать видео только с лицами людей.

После BuzzFeed исследователи стали вторыми, кто позаимствовал изображение лица двух президентов США для эксперимента с дипфейками. Почему снова их? Эти два президента совершенно разные и их фото очень много в интернете. Учёные из университета Карнеги-Меллона создали видео, в котором Дональд Трамп и Барак Обама повторяют движения лиц друг у друга. В другом клипе действия Барака Обамы идентичны действиям Мартина Лютера Кинга из черно-белого ролика, снятого в прошлом веке.

При этом технологию можно использовать не только для дипфейков, но и для редактирования видео с цветами или облаками.

Recycle-GAN основан на механизме GAN, который расшифровывается как генеративно-состязательная сеть. Как мы уже отметили, для создания дипфейка достаточно программы с машинным обучением. Такие конструкции построены всего из двух нейросетей. Первая нейросеть генерирует образы, а вторая — отбирает и фильтрует результаты, используя для этого заданные критерии. В результате мы видим, как, например, дерутся два терминатора, или как сражается Аватар.

Новые горизонты порнографии

Учёные из пяти университетов, которые изучают нейросети, провели эксперимент под названием «Deep Video Portraits». В отчёте эксперимента они описывали усовершенствованную систему изображения речи, мимики и движений определенной персоны на лице другой. Издание TechCrunch предположило, что скоро появится новая волна дипфейков. Так и произошло: хакеры начали создавать фейковые порновидео, где вместо лиц актёров показываются лица звезд.

«Наш результат почти неотличим от реального видео», — уверены эксперты. К сожалению, так и есть. Однако, искусственный интеллект не может сымитировать звук. Но создавали её, скорее всего, не для этого, ведь на видео можно включить озвучку, где актёр передаст с точностью эмоции личности на экране.

«Я понимаю этические последствия. Это ещё одна причина, почему мы опубликовали наши результаты. Я думаю, важно, чтобы люди понимали возможности манипуляционных технологий», — говорит Юстус Тайс, один из авторов исследования.

Пентагон и борьба с дипфейками

Дипфейки могут испортить жизнь отдельным людям и даже спровоцировать политический кризис. Вспомните, к чему приводят фейковые рассылки в WhatsApp.

Что же, если фейки создаются с помощью искусственного интеллекта, следовательно, и для борьбы с ними нужно использовать нейросети. Так и поступили в Пентагоне — управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило алгоритм выявления фальшивых видео.

Экспертам удалось обнаружить у дипфейков ряд существенных недостатков:

  • Люди на таких видео моргают крайне редко
  • Либо неестественно моргают и двигают глаза в разные стороны
  • Совсем НЕ моргают.

Помимо этого можно обнаружить подозрительную подвижность головы, необычный оттенок глаз или неестественные физиологические знаки.

Сотрудники DARPA работают над созданием ИИ, способным с точностью распознавать эти недостатки и проверять ролик на подлинность. Пентагон привлёк на борьбу с дипфейками исследователей из разных университетов США. Учёные из Университета Нью-Йорка уже разработали программу, выявляющую видео-подделки по частоте моргания.

Создатели фейков могут улучшить свои технологии пытаясь сделать их неуязвимыми для ИИ-разоблачителей. Например, «скормив» нейросети изображения людей с закрытыми глазами, можно создать видео, где они будут убедительно моргать. С другой стороны — и противодействие не заставить себя ждать.

В любом случае, говорить о скорой окончательной победе над дипфейками не приходится — скорее, о начале новой гонки информационных вооружений.

А как же голос?

С недавних пор можно подделывать не только движения человека на видео, но и голос на аудио. Можно предположить, что теперь в судах аудиозаписи потеряют свою былую доказательность — они перестали быть оригинальными, теперь (при наличии образцов голоса) можно подделать голос любого человека и заставить его говорить всё, что захочешь.

Аудиоредактор Adobe Project Voco или «фотошоп для голоса»

Проект Voco анонсировали в ноябре 2016 года на конференции Adobe MAX 2016. Программе Voco требуется всего 20 минут, чтобы обучиться копировать оригинальный голос человека. За это время программа разбивает голос человека на отдельные фонемы, и на основе этого формирует искусственную речь.

Программа Lyrebird

В апреле 2017 года студенты из Монреальского института обучения алгоритмам (Канада) разработали программу Lyrebird. Данное программное обеспечение использует искусственный интеллект, чтобы синтезировать голос абсолютно любого человека всего 1 минуту. В качестве примера стартап-компания показала аудио, в котором Дональд Трамп, Барак Обама и Хиллари Клинтон обсуждают потенциал Lyrebird.

Как можно заметить, работа робота тут вполне ощутима даже на слух. Пока качество такой имитации гарантировано лишь при довольно большом труде со стороны производителя копии голоса. Однако, технологии развиваются, и для анализа фейка, созданного с помощью данного ПО, потребуется привлечение специалиста-звукоинженера. Провести его самостоятельно не представляется возможным.


Источник: “https://factcheck.kz/glavnoe/dipfejki-kak-informacionnoe-oruzhie-budushhego/”

©1info.net