Технологии
Роман Персианинов

Почему я считаю, что в истории о поддельных порно-роликах со знаменитостями есть плюсы

Редактор TJ о плюсах и минусах скандальной разработки, которая наложила лица Галь Гадот и Скарлетт Йоханссон на лица девушек в фильмах для взрослых.

Скриншот Саманты Коул с SendVids

В начале осени 2017 года пользователь Reddit начал публиковать отрывки из порно-роликов, где лицо актрисы заменялось лицами Галь Гадот, Скарлетт Йоханссон, Мэйси Уильямс или Обри Плаза. Позже он выложил в открытый доступ собственную разработку на основе самообучающихся алгоритмов, которая позволила создавать подобный контент.

12 декабря 2017 года журналистка Motherboard Саманта Коул опубликовала статью, заголовок которой гласил: «Поддельное порно на основе искусственного интеллекта здесь, и мы в заднице». В статье журналистка не раз дала понять, что относится к разработке с подозрением.

Редактор TJ согласен — в подобном контенте нет ничего хорошего, но из истории следует извлечь ценный урок, а не заваливать осуждением.

Как работает алгоритм

По интернету разошёлся только ролик с Галь Гадот, так как он оказался самым качественным. Согласно сюжету, в нём героиня занимается сексом со своим сводным братом. Внимательный зритель быстро разглядит помехи и артефакты, возникающие на лице актрисы, и поймёт, что это фейк. Всё потому что алгоритм пока допускает ошибки, но он самообучается, а значит его эффективность вырастет.

После публикации разработки на Reddit (она сразу же разошлась среди энтузиастов) автор DeepFakes уточнил, что принципы её работы «до стыдного элементарны». Для создания программы программист использовал библиотеки с открытым исходным кодом типа TensorFlow. Google бесплатно раздаёт эту разработку специалистам, студентам и всем, кто заинтересован в машинном обучении.

Для обучения искусственного интеллекта автор использовал изображения в Google, стоковые фотографии, ролики на YouTube и порно-видео. Благодаря этому компьютер стал различать изображения Галь Гадот и эротических роликов, после чего научился накладывать поверх лиц порноактрис лица знаменитостей. Чем чаще компьютер практиковался, тем быстрее получалось.

Почему разработка заслуживает осуждения

Саманта Коул утверждает, что алгоритмом могут воспользоваться злоумышленники. Они создадут видео о том, что их жертва никогда не делала и не говорила. То есть, средней руки программист сможет обратить алгоритм против жертвы, подорвав её репутацию. «Лёгкость, с которой кто-то может это сделать, пугает», — пишет Коул.

Журналистка приводит статистику — за 2015-2016 годы люди загрузили в «Google Фото» около 24 миллиардов селфи, и теперь злоумышленнику ничего не стоит найти вашу фотографию и подставить её в порно.

«Это очень пугает. Отчасти это показывает, как некоторые мужчины видят в женщинах лишь объект для манипуляций, который можно заставить делать что угодно. Это демонстрирует полное отсутствие уважения к работе людей в сфере порно», — сказала бывшая порноактриса Алиа Джанине в разговоре с Коул.

Позиция журналистки и актрисы понятна. С точки зрения этики разработка DeepFakes оскорбительна — никто не заслуживает подобного отношения к себе. Но пугает не столько это (в интернете хватает способов испортить человеку жизнь), сколько отношение к этой истории.

Почему разработка заслуживает право на существование

Есть риск, что технология попадёт не в те руки, и ей воспользуются в корыстных целях. Не сомневаюсь, что многие неискушённые в интернете люди сходу не поймут, что ролик с Галь Гадот — фейк. А ведь сейчас разработка в лучшем случае на стадии бета-версии, и алгоритмы самообучения будут только совершенствоваться.

Но разработку DeepFakes — как и любую технологию — можно применить и во благо. Подобно тому, как в «Форсаж 7» или «Изгой-один» использовали цифровые копии умерших актёров. В последней картине в кадре появилась цифровая версия умершего Питера Кушинга, и она стоила создателям немало денег и усилий. Но что если благодаря алгоритмам такое воссоздание станет дешевле и проще?

По словам исследователя возможностей искусственного интеллекта Алекса Шампандарда, технологии цифровой замены лиц существуют десятилетия. Но история с DeepFakes показывает, что для их реализации нужны не десятки профессионалов, а лишь программист с современным компьютером. И далеко не все из них будут тратить время на создание поддельных порно-роликов со знаменитостями.

DeepFakes утверждает, что его разработка может увеличить интерес пользователей к машинному обучению. Спорный тезис, но у него есть право на существование. Чем больше будет появляться подобных фейковых роликов, тем быстрее люди научатся их отлавливать.

Может ли разработка DeepFakes навредить людям? Вполне, она уже это сделала. Может ли она помочь в развитии машинного обучения? Я думаю, да, но для этого нужно обсуждать и разбирать историю с разных сторон, а не воспринимать как «чернуху» и не подавать как катастрофу в «эпоху хакеров».

Некоторые СМИ, в том числе и российские, при написании новости об алгоритме сослались на Motherboard, но почему-то не отразили положительные моменты технологии (о них в оригинальной статье есть несколько абзацев). Другие издания вовсе не стали писать о случившимся, в том числе и TJ. Вероятно, редакторы посчитали историю слишком одиозной (а может и просто пропустили, я не знаю).

Но я считаю, что смотреть на эту историю только с этической стороны, то есть видеть только негатив, будет ошибкой. Отвратительно, что кто-то делает порно-ролики со знаменитыми актрисами без их разрешения. Но это старая тема, которую вряд ли можно победить игнорированием или порицанием. Значит, есть смысл как минимум попытаться взглянуть на ситуацию с положительной стороны.

#мнения #технологии #fakeapp #deepfake