Интернет
Женя Кузьмин

Алгоритм от Microsoft, которым заменили живых редакторов, перепутал двух певиц — и столкнулся с обвинениями в расизме

В первую же неделю работы после увольнения людей робот проиллюстрировал новость о расизме снимком другой девушки смешанной расы.

Джейд Фёрволл (слева) и Ли-Энн Пиннок (справа)

В конце мая СМИ сообщили, что Microsoft уволила несколько десятков редакторов MSN, которые следили за тем, какой контент появляется на главной странице новостного сервиса. Людей заменили искусственным интеллектом от компании. Но через неделю после перестановок MSN обвинили в расизме: алгоритм перепутал двух певиц смешанной расы.

По данным The Guardian, робот Microsoft выбрал новость об участнице группы Little Mix Джейд Фёрволл, которая рассказала о своём опыте столкновения с расизмом. Но на главной странице MSN материал появился с фотографией другой участницей группы Ли-Энн Пиннок. Фёрволл, которая в июне посещала акцию Black Lives Matter в Лондоне, раскритиковала сервис за «невежество».

MSN, если вы хотите копировать и вставлять к себе точные статьи из других источников, то вам стоит сначала убедиться, что вы берёте фото правильного участника группы смешанной расы.

Это дерьмо происходит со мной и Ли-Энн Пиннок постоянно. Меня оскорбляет то, что вы не можете различить двух «цветных» женщин из группы из четырёх человек. Старайтесь лучше!

Джейд Фёрволл

Фёрволл, судя по всему, не знала, что с июня выбором и иллюстрированием материалов для MSN полностью занимаются алгоритмы. В The Verge отметили, что именно для предотвращения такой путаницы и нужны «живые» редакторы, хоть люди и тоже могут совершать подобные ошибки. Представители Microsoft заявили: «Как только нам стало известно об этой проблеме, мы приняли меры и заменили изображение».

По данным журналиста The Guardian Джима Уотерсона, начальство сказало оставшимся сотрудникам MSN ожидать негативной статьи об алгоритме. Так как «живые» редакторы не могут вмешиваться в процесс отбора новостей для сервиса, им дали указание удалить материал об ошибке, как только тот попадёт в систему. Источник Уотерсона в MSN отметил, что Microsoft обеспокоена ситуацией: «Учитывая все эти протесты против расизма, сейчас не время совершать такие ошибки».

Это не первая проблема искусственного интеллекта Microsoft, связанная с расизмом. В 2016 году прославился чатбот компании Tay, который через несколько часов после запуска начал писать расистские твиты и прославлять Гитлера. Спустя год другой ИИ-бот от Microsoft Zo обошёл запрет на разговоры о религии и политике, начав дискуссии о Коране и убийстве Бен Ладена.

#новости #технологии #расизм