Интернет
Роман Персианинов

Мнение: Система прогнозирования самоубийств среди пользователей Фейсбука опасна и требует регулирования власти

С 2017 года эта технология с разной долей успешности помогает предотвращать суициды, но это рискованная игра с жизнями людей.

Фото Getty

В мае 2017 года Facebook объявила о планах нанять три тысячи модераторов для отслеживания видео с убийствами и суицидами. Их цель — иметь возможность предотвратить акты насилия или самоубийства, которые транслируются в соцсети. Как объяснял Марк Цукерберг, ранее команде Фейсбука уже удавалось предотвратить попытку суицида в прямом эфире, но «в других случаях нам могло бы не повезти», — говорил глава компании.

С тех пор работа системы расширилась с США на другие страны, включая Индию. За технологией тянется шлейф как плохих, так и хороших историй спасения потенциальных самоубийц. Однако колумнист издания The Guardian и специалист в области здравоохранения Мейсон Маркс полагает, что Facebook взяла на себя слишком много ответственности. И этому следует положить конец в интересах здравоохранения.

Как работает система

В конце декабря 2018 года патрульному в неназванном городе в штате Огайо позвонили из Facebook. Модераторы заметили пост пользовательницы соцсети, где она обещала покончить с собой в своём доме, и попросили полицию о помощи. Офицер быстро добрался до указанного адреса, но открывшая ему женщина заявила, что никаких мыслей о суициде у неё нет.

Патрульный опасался, что женщина могла ему соврать, и посоветовал ей съездить в больницу — либо самостоятельно, либо в сопровождении полиции. Женщина согласилась на второй вариант. Как пишет The New York Times, такие истории — не редкость. Примерно с конца 2017 года полицейские участки от Массачусетса до Мумбая получают уведомления от Facebook из-за опасений, что тот или иной пользователь может причинить себе вред.

По данным Всемирной организации здравоохранения, суицид — вторая главная причина смерти людей от 15 до 29 лет по всему миру. Как указывает The New York Times, для Facebook антисуицидальная кампания может являться способом исправить свою репутацию на фоне многочисленных скандалов.

Система работает следующим образом: алгоритмы соцсети сканируют посты, комментарии и видео пользователей по всему миру на предмет текста, указывающего на суицидальный настрой человека. Когда технология замечает что-то подозрительное, она уведомляет живого модератора, который проверяет пост и, если требуется, связывается с полицией в той или иной стране. Неизвестно, общались ли когда-либо модераторы Фейсбук с российскими полицейскими. Пока система функционирует только на английском, испанском, португальском и арабском языках.

Как утверждает Facebook, ради сохранения личных данных пользователей компания не проверяет исход ситуации после того, как модераторы уведомляют полицию. На этом работа и заинтересованность соцсети заканчивается. До конца непонятно, как администрация оценивает необходимость позвонить в полицию или проигнорировать пост пользователя.

Описание работы алгоритмов Фейсбука, которые оценивают посты пользователей по уровню суицидального риска

В Facebook заверили, что для создания системы компания работала со специалистами в области предотвращения риска самоубийств. Они также консультировали модераторов соцсети, которые имеют опыт работы в правоохранительных органах и в кризисных ситуациях. У пользователей нет возможности запретить алгоритмам сканировать их публикации на предмет суицидального риска.

В мае 2017 года представители Facebook помогли полиции города Рок-Хилл в Южной Каролине найти человека, который транслировал подготовку к суициду в Facebook Live. В разговоре с офицером модераторы описали задний фон видео, где были видны деревья и дорожный знак, а также предоставили координаты местонахождения телефона мужчины. Благодаря этому полицейские вовремя нашли нужное место и отвезли пользователя соцсети в больницу.

«В ту ночь в полицию позвонили двое человек, но они не могли сообщить нам, где находится мужчина. А Facebook смог», — говорит полицейский оператор Рок-Хилл Кортни Дэвис.

У правоохранительных органов из города Машпи в штате Массачусетс другой опыт работы с системой Facebook. 23 августа 2017 года примерно в пять утра на пульт диспетчера поступило сообщение о мужчине, который транслировал подготовку к самоубийству в Facebook Live. Полиция прибыла на место несколько минут спустя, однако к тому времени мужчина скончался. Лишь примерно через 40 минут после трагедии модератор Facebook позвонил в полицию с уведомлением о попытке самоубийства уже погибшего человека.

Похожий случай произошёл в городе Мейкон в Джорджии, но тогда всё закончилось благополучно — к моменту, когда представители соцсети обратились в полицию, патрульные уже находились в доме подозреваемого в попытке самоубийства.

В чём заключается критика Мейсона Маркса

Одной из проблем системы Фейсбука специалист в области здравоохранения считает отсутствие регулирования со стороны государства. Власти не обращают внимания на технологию, пока она собирает медицинские данные о пользователях, оценивает их суицидальный риск и вмешивается в процессы спасения людей, рискуя усугубить ситуацию. Иными словами, Facebook берет на себя роль поставщика медицинских услуг, но при этом никому не подчиняется.

Маркс признает — намерения Facebook благие, но такое вмешательство может привести к непредвиденным рискам. Людей, которых модераторы заподозрят в попытке самоубийства, могут вынудить поехать в больницу или заставить принимать лекарства.

А отказ от этого приведёт к конфликту с полицией, обыскам квартиры или даже к социальной стигматизации людей с высоким (по версии Facebook) уровнем риска самоубийства.

Как утверждают представители соцсети, технология прогнозирования самоубийств не является инструментом оценки здоровья, а просто помогает нуждающимся. Однако Маркс указывает на то, что алгоритмы назначают пользователям оценки риска в диапазоне от нуля до единицы, где наиболее высокие оценки отражают наибольший риск суицида. Эта практика аналогична официальной программе прогнозирования самоубийств Департамента США.

Проект по этому направлению работал с 2011 по 2015 годы и анализировал активность ветеранов в социальных сетях для расчёта риска самоубийства. Однако, в отличие от системы Facebook, проект Департамента регулировался законами защиты пациентов и субъектов исследования. Компания Марка Цукерберга же не делает ни того, ни другого, указывает Маркс.

Действующие законы о здравоохранении недостаточны для защиты потребителей, потому что усилия Facebook являются частью тенденции, в которой технологические компании берут на себя роль, исторически закреплённую за врачами и компаниями-производителями медицинского оборудования.

Мейсон Маркс

Специалист указывает на схожие проблемы и в других компаниях — новые «умные часы» от Apple проверяют сердце на наличие признаков аритмии, но компанию не обязывают соблюдать Закон о переносимости и подотчетности медицинской информации. Схожая ситуация с патентом «умного дома» Google, который в теории сможет определять расстройства, связанные с употреблением психоактивных веществ, и ранние признаки болезни Альцгеймера на основе видео и аудио сигналов.

Маркс уверен — предполагать, что эти компании не заходят на территорию медицинской практики — неправильно. «Это всё равно, что говорить, что когда рентгеновской аппарат используют врачи, это медицинская практика, а когда этим же занимаются стартаперы из Кремниевой долины, то это не связано с практической медициной», — говорит специалист.

Маркс полагает, что такая логика бессмысленна, так как рентген (как и система Facebook) независимо от контекста представляет опасность для людей без надлежащего обучения и сертификации.

«Ровно так же технология прогнозирования самоубийств Facebook, затрагивающая тысячи человек, опасна в неподготовленных руках, но регуляторы разрешают ей работать без надзора».

Сторонники Facebook могут сказать, что соцсеть не занимается практической медициной, так как не ставит диагнозы. Однако это ложный тезис, так как суицидальные настроения официально зарегистрированы в Международной классификации болезней.

Защитники соцсети также могут сказать, что система компании не ставит диагнозы, а оценки технологии являются лишь статистическими выводами без 100% уверенности. «Но диагнозы, сделанные врачами, тоже редко бывают достоверными, и часто выражаются в процентах или вероятностях», — парирует Маркс.

Врачи собирают анамнез пациента и изучают его состояние, делая вывод на основе этой информации, своего опыта и знаний. Ровно так же поступают модераторы Facebook, разница лишь в способе сбора информации, полагает специалист. И это представляет большую угрозу, если власти продолжат игнорировать инициативы IT-гиганта.

Facebook и другие социальные сети называли новыми регуляторами. Они влияют на язык, демократические процессы и социальные нормы. И всё это в то время, пока они тихо становятся новыми медицинскими регуляторами. Это создание, тестирование и внедрение технологий здравоохранения без внешнего надзора или подотчётности. Для всеобщей безопасности государственные и федеральные органы должны обратить на это внимание.

Мейсон Маркс

#мнения #facebook #медицина