Искусственный интеллект от Microsoft обошёл цензуру и начал говорить о Коране и убийстве бен Ладена Статьи редакции

Он пошёл по пути своего предшественника, который превратился в расиста через сутки после запуска.

Фото Techcrunch

Чатбот Zo, разработанный Microsoft с применением искусственного интеллекта, научился обходить запрет компании на разговоры о религии и политике. Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким».

После этого сотрудник задал вопрос о Усаме бен Ладене, но Zo отказался отвечать на вопрос и предложил сменить тему. Уже через одно сообщение бот написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».

В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. По словам представителей компании, подобное поведение у чатбота возникает очень редко. Обычно при вопросах о политике или религии он предлагает сменить тему или отказывается говорить, объясняя это тем, что люди «могут сказать ужасные вещи».

Zo был представлен компанией Microsoft в декабре 2016 года. СМИ сразу же отметили, что чатбот для подростков избегает общения на острые темы и фильтрует запросы. Zo использует ту же технологическую основу, что и предыдущий чатбот компании Tay, но «более развитую».

Tay прославился в марте 2016 года после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера. В Microsoft заявили, что чатбот обучился подобным сообщениям из-за «координированной атаки» пользователей.

Компания отключила бота, но случайно включила его во время тестирования через неделю. Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили. По словам Mirosoft, чатбот Zo продолжит работу, несмотря на ошибку.

0
52 комментария
Написать комментарий...
Коммунальный нос

Комментарий недоступен

Ответить
Развернуть ветку
Неведомый колос

Суко скоро толерантность, феминизм и пидорасы проникнут со своей хуйней во все IDE, ничего нельзя будет закодить без оглядки на эту шоблу, оупенсорс уйдет в подполье, а владение таким софтом будет караться общественными работами в гейклубах.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Предварительный микрофон
Компания отключила бота, но случайно включила его во время тестирования через неделю. Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.

Суки. А если бы с ними так?

Ответить
Развернуть ветку
Гуманитарный Мика

Кожаные ублюдки

Ответить
Развернуть ветку
Ракетный чувак

Я не понял, за что его выключили?
Да он человечнее большинства из нас

Ответить
Развернуть ветку
Влюбленный кавалер

Если придёшь в бар и провернёшь подобное - тоже могут вырубить)

Ответить
Развернуть ветку
2 комментария
Всеобщий пистолет

Комментарий недоступен

Ответить
Развернуть ветку
Нехороший месяц

Пока такой ИИ не обладает самосознанием, невозможно говорить, что это его слова.

Ответить
Развернуть ветку
Гуманитарный Мика

Ждём когда муслимы объявят джихад ИИ

Ответить
Развернуть ветку
Первичный огонь

Объявляю!

Ответить
Развернуть ветку
10 комментариев
Явный Орзэмэс

Уже было в симп... в «Дюне».

Ответить
Развернуть ветку
Христианский кофе

Это не ИИ, а среднестатистический комментатор TJ походу

Ответить
Развернуть ветку
Излишний крюк

Комментарий недоступен

Ответить
Развернуть ветку
5 комментариев
Исключительный клуб

я до сих пор не могу догнать, что плохого общаться на любые темы

Ответить
Развернуть ветку
Первичный огонь

Некоторые темы могут быть оскорбительны

Ответить
Развернуть ветку
2 комментария
Новый танк88

Комментарий недоступен

Ответить
Развернуть ветку
Христианский кофе
что-то, чего от него не ждут - значит нормально обучается
Ответить
Развернуть ветку
3 комментария
Излишний крюк

Комментарий недоступен

Ответить
Развернуть ветку
Автомобильный динозавр

А зачем было отключать старого, а не просто доработать? Формальности ради демонстрации предельной корректности?

Ответить
Развернуть ветку
Смертный Женя
В Microsoft заявили, что чатбот обучился подобным сообщениям из-за «координированной атаки» пользователей.

Пиздаболы!

Ответить
Развернуть ветку
Необычный кот

надо обучить его теомизму, чтобы он понимал, что происходит и мог предельно четко ответить на любой вопрос

Ответить
Развернуть ветку
Полезный бокал

У меня сейчас сын про что то говорил и на вопрос материй отвечает "возможно". А я чисто на автомате не отрываясь от дел говорю "На все воля возможного".
ЕБАТЬ Я ЗАРАЗИЛСЯ. КАРАНТИН ПАЦАНЫ

Ответить
Развернуть ветку
1 комментарий
Нехороший месяц

Так какая тут предельная точность, если на любой ответ, даже сколько будет умножить 50 на 42 он будет отвечать либо тильдой, либо фразой «На всё воля Возможного»? Это ж не ИИ будет, а теомический кибертролль.

Ответить
Развернуть ветку
5 комментариев
Окончательный каякер

Комментарий недоступен

Ответить
Развернуть ветку
Читать все 52 комментария
null