Интернет
Даша Лейзаренко

Индийский политик сделал дипфейки собственной речи на других языках, чтобы привлечь больше избирателей

Партия гордится тем, что впервые использовала дипфейки «во благо», но эксперты обеспокоены такими манипуляциями.

Индийский политик Маной Тивари (Manoj Tiwari) использовал ИИ, чтобы создать дипфейк собственного ролика на хариани и английском языке, чтобы привлечь больше избирателей, сообщает Vice. Эксперты обеспокоены тем, как далеко может зайти использование сфабрикованных видео в политике.

Один настоящий и два фейковых ролика

7 февраля, за день до выборов в парламент Индии, в WhatsApp набрали популярность два ролика, в которых президент Индийской народной партии Маной Тивари агитирует голосовать за себя. В одном видео политик говорит на хинди, а в другом — на диалекте хариани.

Для создания ролика партия привлекла специализирующуюся в политических коммуникациях компанию Ideaz Factory. Те сгенерировали дипфейк для «позитивной избирательной кампании», чтобы привлечь избирателей, говорящих на разных языках.

«Технология дипфейков помогла нам усилить кампанию, как ничто другое. С помощью ролика на хариани мы убедительно донесли послание целевой аудитории, на чьём языке кандидат не говорит», — заявил Vice пиарщик партии Нилкант Бакши (Neelkant Bakshi).

В ролике на хариани Тивари попытался отговорить живущих в Дели рабочих-мигрантов голосовать за партию-конкурента. Дипфейк распространили по 5800 чатам в WhatsApp, а видео посмотрело около 15 миллионов человек, рассказал Бакши. После того, как ролик на хариани набрал популярность, ИНП создала видео на английском, чтобы привлечь городских жителей.

Заменили движения губ, но аудио не генерировали

В большинстве дипфейков лицо героя заменяют полностью, но более изощрённый метод — это изменять только движения губ на оригинальном видео так, чтобы они совпали с новым аудио. В Ideaz Factory заявили, что использовали именно эту технологию: «Мы обучили липсинк-алогоритм на речах Тивари, чтобы создать подходящие движения губ». В компании наняли актёра дубляжа, который зачитал текст на хариани — звук наложили поверх видео.

В Vice отмечают, что пользователи WhatsApp заметили неестественные движения губ политика. В Ideaz Factory признали, что алгоритм не идеален: он ещё не может генерировать голос с помощью ИИ. Но команда Тивари собирается модифицировать алгоритм и дальше использовать дипфейки в избирательной кампании.

Vice отправил ролики исследователям Технологического института Рочестер в Нью-Йорке, которые подтвердили, что видео действительно являются дипфейками. В Ideaz Factory отказались рассказывать, какую технологию они использовали, но исследователи заявили, что, скорее всего, дипфейки создали с помощью Nvidia's vid2vid.

«Выпустили джина из бутылки»

В партии считают, что впервые использовали технологию дипфейков «на благо»: «Раньше этот инструмент применялся только в негативном ключе. Мы же воспользовались им для позитивной кампании».

Создатель гражданского проекта Tattle, который создаёт архив контента в WhatsApp, Тарунима Прабхакар (Tarunima Prabhakar) скептически отнёсся к «позитивному» использованию дипфейков: «Проблема в том, что они выпустили джина из бутылки», поскольку рано или поздно кто-нибудь применить технологию как «оружие». «Если разрешать политическим партиям использовать такие виды дипфейков, то как это толковать? Слишком много субъективности», — отмечает Прабхакар.

В Vice также посчитали, что такой контент сможет обойти алгоритмы фактчекинга и обмануть экспертов по безопасности. Издание связалось с индийской фактчекинговой компанией AltNews, но она не смогла определить, фейковый ролик или нет. «Сейчас стало невозможно проверять подлинность чего-либо, что сразу не кажется фейковым. Это опасно. Впервые что-то подобное появляется в Индии», — отметил глава AltNews Пратик Синха (Pratik Sinha).

В 2018 году жители индийской деревни насмерть забили пятерых путешественников из-за фейков, распространившихся в WhatsApp. С тех пор компания запретила пересылать одно и то же сообщение более чем пяти контактам и запустила службу фактчекинга.

Соцсети по-разному борются с дипфейками. Twitter будет добавлять к такому контенту пометку о манипуляции. Facebook так и не объявил новые правила, но заблокировал несколько фейковых роликов. Reddit запретил публикацию дипфейков с целью выдачи себя за другое лицо.

#соцсети #дипфейки #индия #whatsapp