Технологии
Даша Лейзаренко

Пользователь Reddit взломал премиум-версию приложения DeepNude, «раздевающего» женщин на фото

Создатели удалили DeepNude с сайта, но копии остались в сети. Приложение взломали так, чтобы оно генерировало фото без водяных знаков.

Пользователь Reddit создал кряк для приложения DeepNude, которое «удаляет» одежду с фотографий при помощи нейросетей. Его дополнение предоставляет бесплатный доступ к премиум-версии, которая генерирует фото безо всяких водяных знаков.

Создатель кряка рассказал, что потратил почти четыре часа на создание расширения. Он выяснил, что DeepNude сохраняет адрес электронной почты в метаданных сгенерированного изображения, вероятно, для того, чтобы отслеживать создателей «раздетых» фото. Такая слежка ведётся только за теми, кто оплатил премиум-аккаунт.

Пользователь также отметил, что автор DeepNude не придумал ничего нового — он взял библиотеки для машинного обучения и набор фотографий женщин, а затем объединил их в одну программу. Поэтому сделать похожее приложение будет несложно, считает создатель кряка. К моменту написания заметки он удалил свой аккаунт на Reddit.

Редактор TJ проверил работу кряка: фотографии создаются без огромных водяных знаков, как в бесплатной версии, и даже без надписи «Fake», как в премиум-версии. Ранее в DeepNude не существовало опции генерации фото без любых водяных знаков. Взломанное приложение также позволяет скачать сгенерированное изображение.

Сгенерированное во взломанной версии DeepNude фото Веры Брежневой

Сгенерированное во взломанной версии DeepNude фото Тейлор Свифт

Сгенерированное во взломанной версии DeepNude фото Ольги Серябкиной

23 июня анонимный разработчик запустил приложение DeepNude, которые с помощью искусственного интеллекта «удаляет» одежду с фотографий женщин. СМИ узнали о нём спустя три дня — после этого оно набрало популярность в соцсетях.

26 июня авторы приложения заявили в своём Твиттере о закрытии сервиса. Разработчики уточнили, что не думали, что приложение станет таким популярным. Они решили, что вероятность злоупотреблений слишком высока, а «мир пока не готов к DeepNude».

#новости #дипфейки #нейросети