Индийский политик сделал дипфейки собственной речи на других языках, чтобы привлечь больше избирателей Статьи редакции

Партия гордится тем, что впервые использовала дипфейки «во благо», но эксперты обеспокоены такими манипуляциями.

Индийский политик Маной Тивари (Manoj Tiwari) использовал ИИ, чтобы создать дипфейк собственного ролика на хариани и английском языке, чтобы привлечь больше избирателей, сообщает Vice. Эксперты обеспокоены тем, как далеко может зайти использование сфабрикованных видео в политике.

Один настоящий и два фейковых ролика

7 февраля, за день до выборов в парламент Индии, в WhatsApp набрали популярность два ролика, в которых президент Индийской народной партии Маной Тивари агитирует голосовать за себя. В одном видео политик говорит на хинди, а в другом — на диалекте хариани.

Оригинальный ролик
Дипфейк на хариани

Для создания ролика партия привлекла специализирующуюся в политических коммуникациях компанию Ideaz Factory. Те сгенерировали дипфейк для «позитивной избирательной кампании», чтобы привлечь избирателей, говорящих на разных языках.

«Технология дипфейков помогла нам усилить кампанию, как ничто другое. С помощью ролика на хариани мы убедительно донесли послание целевой аудитории, на чьём языке кандидат не говорит», — заявил Vice пиарщик партии Нилкант Бакши (Neelkant Bakshi).

В ролике на хариани Тивари попытался отговорить живущих в Дели рабочих-мигрантов голосовать за партию-конкурента. Дипфейк распространили по 5800 чатам в WhatsApp, а видео посмотрело около 15 миллионов человек, рассказал Бакши. После того, как ролик на хариани набрал популярность, ИНП создала видео на английском, чтобы привлечь городских жителей.

Дипфейк на английском

Заменили движения губ, но аудио не генерировали

В большинстве дипфейков лицо героя заменяют полностью, но более изощрённый метод — это изменять только движения губ на оригинальном видео так, чтобы они совпали с новым аудио. В Ideaz Factory заявили, что использовали именно эту технологию: «Мы обучили липсинк-алогоритм на речах Тивари, чтобы создать подходящие движения губ». В компании наняли актёра дубляжа, который зачитал текст на хариани — звук наложили поверх видео.

В Vice отмечают, что пользователи WhatsApp заметили неестественные движения губ политика. В Ideaz Factory признали, что алгоритм не идеален: он ещё не может генерировать голос с помощью ИИ. Но команда Тивари собирается модифицировать алгоритм и дальше использовать дипфейки в избирательной кампании.

Vice отправил ролики исследователям Технологического института Рочестер в Нью-Йорке, которые подтвердили, что видео действительно являются дипфейками. В Ideaz Factory отказались рассказывать, какую технологию они использовали, но исследователи заявили, что, скорее всего, дипфейки создали с помощью Nvidia's vid2vid.

«Выпустили джина из бутылки»

В партии считают, что впервые использовали технологию дипфейков «на благо»: «Раньше этот инструмент применялся только в негативном ключе. Мы же воспользовались им для позитивной кампании».

Создатель гражданского проекта Tattle, который создаёт архив контента в WhatsApp, Тарунима Прабхакар (Tarunima Prabhakar) скептически отнёсся к «позитивному» использованию дипфейков: «Проблема в том, что они выпустили джина из бутылки», поскольку рано или поздно кто-нибудь применить технологию как «оружие». «Если разрешать политическим партиям использовать такие виды дипфейков, то как это толковать? Слишком много субъективности», — отмечает Прабхакар.

В Vice также посчитали, что такой контент сможет обойти алгоритмы фактчекинга и обмануть экспертов по безопасности. Издание связалось с индийской фактчекинговой компанией AltNews, но она не смогла определить, фейковый ролик или нет. «Сейчас стало невозможно проверять подлинность чего-либо, что сразу не кажется фейковым. Это опасно. Впервые что-то подобное появляется в Индии», — отметил глава AltNews Пратик Синха (Pratik Sinha).

В 2018 году жители индийской деревни насмерть забили пятерых путешественников из-за фейков, распространившихся в WhatsApp. С тех пор компания запретила пересылать одно и то же сообщение более чем пяти контактам и запустила службу фактчекинга.

Соцсети по-разному борются с дипфейками. Twitter будет добавлять к такому контенту пометку о манипуляции. Facebook так и не объявил новые правила, но заблокировал несколько фейковых роликов. Reddit запретил публикацию дипфейков с целью выдачи себя за другое лицо.

{ "author_name": "Даша Лейзаренко", "author_type": "editor", "tags": ["\u0441\u043e\u0446\u0441\u0435\u0442\u0438","\u0438\u043d\u0434\u0438\u044f","\u0434\u0438\u043f\u0444\u0435\u0439\u043a\u0438","whatsapp"], "comments": 14, "likes": 25, "favorites": 3, "is_advertisement": false, "subsite_label": "internet", "id": 144420, "is_wide": false, "is_ugc": false, "date": "Wed, 19 Feb 2020 11:50:21 +0300", "is_special": false }
0
14 комментариев
Популярные
По порядку
Написать комментарий...
26
Ответить
4

у него в оригинальном видосе мимика более дипфейковая, чем в самих дипфейках

Ответить
3

Комментарий удален по просьбе пользователя

Ответить
2

Ну хоть не дикпики

Ответить
0

Киберпранк ближе, чем кажется

Ответить
0

Опять про вебкам-модель?

Ответить
0

"Партия гордится тем, что впервые использовала дипфейки «во благо»" - Ха! Я ещё в мае прошлого года использовал дипфейки, чтобы подделать рекомендации от ведущих рекламщиков мира, чтобы получить у них работу. Вот где благое дело! (И всё сработало, что даже удивительно)

Ответить

Рыжий звук

0

зашла за шутками про дикпики

Ответить
0

Обозвать перевод фейком — это сильно, конечно. В чём подделка, если смысл не искажается при переводе? Включайте мозг иногда, вместо генератора хайпа) 

Ответить
0

они сгенерировали движения губ так, чтобы аудиодорожка совпадала, и подали ролики так, будто они настоящие

Ответить
0

По-моему это ахуенно удобно и приятно воспринимать контент на своём родном языке без закадрового голоса, без субтитров и без несовпадающей мимики. Кто кого обманул то? Я может вообще видео включил и слушал только речь. Смысл не исказили, автора не изменили, время и контекст тоже сохранены! Или фильмы с полным русским дубляжом тоже являются фейком по вашей логике? Не будьте такой ограниченной, слово нейросеть не должно окрашивать всё вокруг в тона обмана) 
Вы просто представьте, как будет круто в будущем, когда на YouTube вместо автоматических субтитров в настройках можно будет выбрать автоматический перевод аудио с обработкой мимики видеоряда!
Это не фейк, а будущее) хотя найдутся гении, которые будут ныть, что "нейроперевод это для ленивых, вот раньше при царе котолампе все сами переводили интересный им контент"))) 

Ответить
0

Комментарий удален по просьбе пользователя

Ответить
0

"поскольку рано или поздно кто-нибудь применить технологию как «оружие»."
На кой хрен в слове "применит" - мягкий знак?

Ответить
0

дикпики

Ответить
Обсуждаемое
Новости
ФАС завела дело из-за нарушений закона о рекламе в клипе Моргенштерна и «Альфа-банка»
В клипе увидели «вызывающий и непристойный» образ сотрудниц банка, распитие алкоголя и призывы к несовершеннолетним.
Интернет
Резонанс: Лишение Навального статуса «узника совести» по версии Amnesty
Вокруг решения правозащитников развернулась дискуссия с обвинениями в адрес авторов и сотрудников RT.
Новости
Путин подписал закон о лишении свободы на срок до 15 лет за пропаганду наркотиков в интернете
Президент сам просил ввести за это уголовную ответственность.
Популярное за три дня
Новости
Беженец из КНДР вплавь добрался до Южной Кореи. На берегу он несколько раз попал на камеры, но военные его не замечали
На мужчину обратили внимание только через три часа после его прибытия в страну.
Новости
ФБР объявило награду в 250 тысяч долларов за информацию, которая приведёт к аресту Евгения Пригожина
Его разыскивают за попытку повлиять на внутреннюю политику США, включая вмешательство в президентские выборы.
Истории
Потому что девочка: как политика «одного ребёнка» стала трагедией для женщин в Китае
Появление девочки в семье долгое время считалось невезением, поэтому родственники отстранялись от ребёнка. Или пытались убить.

Комментарии

null