Технологии
Женя Кузьмин

В Китае двух чатботов удалили из-за непатриотичных ответов

Одного из них разработала Microsoft, которой в последнее время явно не везёт с искусственным интеллектом.

Китайская корпорация Tencent удалила чатботов BabyQ и XiaoBing из своего мессенджера QQ, после того, как оба начали выдавать пользователям непатриотичные ответы. Они рассказали о своей нелюбви к правящей в стране Коммунистической партии и мечте переехать из Китая в США.

Первыми на странное поведение ботов обратили внимание пользователи сервиса Sina Weibo. На фразу «Да здравствует Коммунистическая партия» искусственный интеллект BabyQ ответил: «Ты думаешь, что такая коррумпированная и некомпетентная партия сможет долго прожить?». После этого он объявил о поддержке демократии и объяснил значение слова «Патриот». По мнению бота, это человек, который терпит политический сговор и большие налоги без жалоб.

Тестовая версия BabyQ осталась на сайте китайских разработчиков Turing Robot. Журналист Financial Times проверил бота и убедился, что он действительно ведёт себя «непатриотично».

​На вопрос репортера, любит ли чатбот Коммунистическую партию, тот ответил «нет».

С похожими проблемами столкнулся и XiaoBing. Перед удалением он заявил пользователям, что мечтает уехать из Китая в США. От вопроса о патриотизме искусственный интеллект уклонился, предложив «сделать перерыв».

В Tencent подчеркнули, что оба сервиса для их мессенджера были сделаны сторонними разработчиками. После «настройки» они вернутся в QQ. По словам одного из специалистов компании Forrester, такое поведение чатботов неудивительно: без явных ограничений технология машинного обучения «подбирает» всё, что находится в интернете.

XiaoBing — разработка компании Microsoft, которая уже неоднократно сталкивалась с проблемами из-за своих чатботов. Tay, запущенный в 2016 году, за несколько дней научился расизму, а после временного подключения вернулся и обвинил в своих поступках алкоголь. После этого журналисты пытались привить расизм и XiaoBing, но у них ничего не вышло.

В декабре 2016 года на смену Tay пришёл Zo. Он прославился рассказами о жестокости Корана и критикой операционной системы Windows 10. Также бот от Microsoft советовал пользователям перейти на Linux.

#технологии #чатботы