Учёные из Великобритании и США: созданные искусственным интеллектом лица вызывают больше доверия, чем настоящие
Зачастую респонденты не могли отличить лицо, сгенерированное ИИ, от реального.
Наиболее (верхний ряд) и наименее (нижний ряд) точно классифицированные настоящие (R) и синтетические (S) лица, NVIDIA
Доктор Софи Найтингейл из Ланкастерского университета и профессор Хани Фарид из Калифорнийского университета в Беркли провели эксперименты, попросив отличить реальные лица от синтезированных с помощью StyleGAN2 — нейронной сети NVIDIA, которая создаёт реалистичные изображения людей и предметов. Затем участники исследования рассказали, какие чувства у них эти лица вызывают.
В первом эксперименте участвовало 315 человек, которые определили, настоящее ли лицо или синтезированное, с точностью в 48%. Во втором эксперименте 219 новых участников, которые прошли обучение о классификации лиц, оказались точны в 59% случаев.
Четыре наиболее (вверху) и четыре наименее (внизу) заслуживающих доверия лица и их рейтинг по шкале от 1 (очень ненадёжный) до 7 (очень надёжный), NVIDIA
Результаты показали, что искусственно сгенерированные лица не только очень фотореалистичны, но и почти неотличимы от реальных лиц и даже вызывают у смотрящих больше доверия. Все потому, что при создании искусственных лиц с помощью StyleGAN2 удалось преодолеть эффект «зловещей долины» — явление, когда робот или другой объект, выглядящий или действующий примерно как человек, вызывает неприязнь и отвращение у людей-наблюдателей.
Наша оценка фотореализма лиц, синтезированных искусственным интеллектом, показывает, что механизмы синтеза прошли через «зловещую долину» и способны создавать лица, которые неотличимы и заслуживают большего доверия, чем настоящие лица.
Исследователи отметили, что респонденты чуть с большей частотой называли заслуживающими доверие лица чернокожих людей, чем лица людей из Южной Азии. В остальном тенденций, связанных с разными расами, не замечено. Женщин же сочли более надёжными, чем мужчин, — 4,96 против 4,36 баллов в среднем.
Тем временем, синтезированные искусственным интеллектом текст, аудио, изображения и видео уже использовались для так называемого «порномести», мошенничества и пропаганды, предупреждают учёные. Авторы напомнили, что в цифровом мире, где любое изображение или видео можно подделать, подлинность контента стоит ставить под сомнение.
#технологии #ии #новости