Дипфейки становятся все дешевле и доступнее

У Тома Хэнкса, несомненно, много фотографий. Но ничего похожего на то, что было представлено на конференции по компьютерной безопасности Black Hat, вы раньше не видели. Там тоже показали фото актера. Но эти снимки были сделаны не камерой, а при помощи алгоритмов машинного обучения.

Филип Тулли, исследователь в области данных в компании FireEye (она специализируется на сетевой безопасности), сгенерировал фальшивого Хэнкса. Ученый решил проверить, насколько легко можно создать дипфейк, используя общедоступный софт. Вердикт Тулли гласит: «Даже люди с несущественным опытом могут использовать технологии машинного обучения и создавать довольно убедительные продукты».

Конечно, если присмотреться повнимательнее, то по фото в полном разрешении видно, что это фейк. Например, складки на шее и текстура кожи выглядят неестественно. Но в целом эти изображения довольно точно воспроизводят черты лица актера – нахмуренные брови и холодный взгляд серо-зеленых глаз. Этого достаточно, чтобы в соцсетях их приняли за реальные фото Тома. 

Для создания поддельного снимка Тулли понадобилось лишь несколько сотен фотографий Хэнкса (Google в помощь) и меньше сотни долларов, чтобы настроить на выбранный им предмет открытое ПО для формирования лиц. С помощью других доступных ПО с искусственным интеллектом ученый пытался сымитировать голос актера (для этого он использовал три ютьюб-клипа актера). Но результаты оказались менее впечатляющими.

FireEye продемонстрировали, как кто угодно дешево и без особых усилий может сгенерировать сносные фейковые фото. И это лишь усиливает всеобщую обеспокоенность возможностями искусственного интеллекта. Результаты работы таких алгоритмов часто называют дипфейками. Этот термин заимствован из аккаунта на Reddit, где в конце 2017 года были опубликованы отредактированные порнографические видео – с помощью монтажа в них добавили лица голливудских актрис.

Большинство дипфейков в интернете – это видео и изображения низкого качества, которые созданы для порнографических или развлекательных целей. На сегодняшний день задокументировано вредоносное использование дипфейков – это харассмент по отношению к женщинам. Корпорации или медиапродакшены с более крупным бюджетом могут создавать и более изощренные продукты, включая видео. Но исследователи из FireEye хотели показать, как почти кто угодно может воспользоваться достижениями искусственного интеллекта и без особого опыта создать нечто подобное. Члены Конгресса США из обеих партий обеспокоены тем, что дипфейки могут быть использованы для политического вмешательства.

Тулли воспользовался тем, что исследовательские группы открыто делятся достижениями в области искусственного интеллекта и даже предоставляют коды. Чтобы подделать фото Хэнкса, Тулли применил модель генерации лица, опубликованную Nvidia в прошлом году. Компания создала свое ПО, обработав миллионы изображений лиц за несколько дней с помощью мощных графических процессоров. Тулли же адаптировал его под «Хэнкс-генератор» меньше чем за день, с помощью единственного графического процессора (и тот был арендован в облаке). Чтобы воссоздать голос Хэнкса, ему потребовалось еще меньше: ноутбук, три аудиодорожки и выпускной проект какого-то аспиранта по синтезу речи в Google. 

«Если это продолжится, могут быть негативные последствия для общества в целом», – считает Тулли. В одном из предыдущих проектов он доказывал, что искусственный интеллект может создать текстовый контент, схожий с тем, что выпускает российское Агентство интернет-исследований (предположительно, в 2016 году эта компания пыталась вмешаться в ход президентских выборов в США).

Тим Хван, научный сотрудник Центра безопасности и новейших технологий в Вашингтоне считает, что споры об угрозе дипфейков порой граничат с истерией. И такие эксперименты, как провел Тулли, как раз помогут справиться с этим.  

«Большое количество дискуссий об опасности дипфейков строятся на драматических анекдотах», – объяснил Хванг. Например, некоторые предполагают, что фейковая личность кандидата может сорвать выборы.

Проект FireEye помог пролить свет на некоторые практические моменты. Например показал, чего именно можно добиться с помощью минимальных ресурсов и открытых результатов исследований в области AI. По мнению Хвана, лучший способ оценить реальную угрозу дипфейков – это объединить результаты эксперимента Тулли с тем, что уже известно. И это гораздо эффективнее, чем сочинять худшие сценарии развития событий.

Несмотря на искусственного Хэнкса Тулли, этот эксперимент лишь подтверждает, что приложение, в котором можно будет создать неотличимый от оригинала фейк, появится еще очень не скоро. 

В прошлом месяце Хван опубликовал сообщение, которое заключает, что дипфейки не представляют серьезной и неизбежной угрозы. Однако обществу следует инвестировать в средства защиты от них в любом случае.

Тим Хван рекомендует корпорациям и академическим лабораториям создать «зоопарки дипфейков». Работать они должны так: коллекционировать экземпляры, созданные с помощью разных открытых технологий, а впоследствии создавать дипфейк-детекторы. Некоторые компании уже начали работать над подобными проектами. Nvidia опубликовала результаты по выявлению лиц, которые были синтезированы с помощью искусственного интеллекта.  

Тем временем Facebook открыли хранилище дипфейк-видео. Но не просто так: корпорация предложила $500 тысяч за наиболее эффективный дипфейк-детектор, обученный на этих видео. Победивший софт сможет распознавать дипфейки не из коллекции Facebook только в 65 % случаев. 

Исследователи из FireEye также думают о том, как дипфейки вольются в бизнес дезинформации и его методы. На конференции Тулли выступал совместно с Ли Фостером (он занимается исследованием дезинформационных кампаний). В прошлом году его команда разоблачила разрастающуюся проиранскую кампанию, которая использовала фейковые аккаунты в твиттере и фейсбуке. Кроме того, дезинформаторы обманывали экспертов по ближневосточной политике – брали у них интервью, которые впоследствии использовали для продвижения собственной повестки. 

Фостер признался, что результаты Тулли и его опыт в сфере дезинформации заставили его задуматься о том, что вскоре и ему придется плотно заняться изучением дипфейков. Фотографии профилей, полученные с других ресурсов, – ключ, который исследователи используют, чтобы разоблачить фейковые аккаунты. Фальшивый Хэнкс не так уж далек от качества, которое требуется, чтобы обеспечить обманщиков альтернативой. «Для того чтобы быть убедительным в мире, где мы столь быстро потребляем информацию, необязательно быть идеальными», – говорит Фостер. – Если вы листаете ленту вашего твиттера на скорости, вы, скорее всего, не станете утруждать себя тщательным изучением фото профиля».

Материал был впервые опубликован на сайте американского Wired.

Источник: www.gq.ru