Офтоп
Сергей Звезда

«Известия»: «ВКонтакте» начала выявлять суицидальный контент на фотографиях с помощью нейросети

Во «ВКонтакте» разработали алгоритм для определения противоправного или «опасного» контента на фотографиях. Нейросеть распознает объекты на картинках, которые в итоге исключаются из поисковой выдачи и «умной» новостной ленты или полностью блокируются. Об этом сообщает газета «Известия» со ссылкой на представителей компании.

Нейросеть определяет изображённые предметы и сущности, в том числе человека, ребёнка, животное, растение, предметы одежды и символы «групп смерти». Как утверждается, записи и фото с суицидальным контентом удаляются автоматически, а страницы авторов блокируются.

Нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как «опасное», оно отправляется модераторам для проверки. Если же фото признано «умеренно опасным», оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.

Представители «ВКонтакте»

Руководитель направления Big Data и Machine Learning «ВКонтакте» Андрей Законов пояснил, что алгоритм тестируют на анализ текстовых записей на изображениях. По его словам, нейросеть обучили на основе жалоб пользователей.

Нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются. С помощью этой технологии в будущем мы сможем бороться со спамом и мошенничеством.

Андрей Законов, руководитель направления Big Data и Machine Learning «ВКонтакте»

В феврале 2017 года «ВКонтакте» стала блокировать страницы пользователей, упоминающих хэштеги, связанные с суицидальными пабликами — так называемыми «группами смерти». После публикации тестовой записей с фразой #синийкит страницы начали замораживать из-за «подозрительной активности». Кроме того, Во «ВКонтакте» появилась новая причина для жалоб на записи и комментарии — призыв к суициду.