Скользкая дорожка приватности: почему Apple критикуют из-за решения проверять откровенные фото на устройствах
Facebook, Google и другие IT-компании уже давно используют подобную технологию — и до сих пор многие о ней даже не знали.
5 августа Financial Times сообщило со ссылкой на источники, что Apple начнёт проверять фото на устройствах пользователей на наличие детской порнографии. Спустя несколько часов компания сама объявила о нововведениях на отдельной странице официального сайта.
Apple представила улучшения функций защиты детей в трёх областях — «Сообщениях», фотографиях в iCloud и Siri. Они заработают с выходом новых версий систем для iPhone, iPad, MacBook и Watch.
- Компания начнёт автоматически размывать откровенные фотографии для детских аккаунтов младше 13 лет в «Сообщениях». Пользователей начнут предупреждать о безопасности перед попыткой просмотреть контент, а родителям сообщат, если дети всё же открыли или отправили снимок. Проверку обещают проводить локально на устройстве;
- Apple также начнёт проверять фотографии в iCloud на предмет жестокого обращения с детьми: компания использует готовую базу снимков от государственного центра пропавших и эксплуатируемых детей США (NCMEC). Сравнение будут проводить автоматически по хеш-суммам, компания не получит доступ к самому снимку;
- Siri и «Поиск» начнут выдавать подсказки о безопасности и справочную информацию о детском насилии как для детей, так и для родителей.
Редактор TJ разобрался, из-за чего паникуют в соцсетях, к чему могут привести новые функции и почему Apple не могла избежать их внедрения.
В соцсетях и СМИ обвинили Apple в нарушении приватности. Компания это отрицает
После публикации Apple в твиттере начались масштабные обсуждения новых функций. Пользователи начали критиковать компанию, которая совсем недавно противостояла ФБР, отказываясь разблокировать айфон стрелка в Сан-Бернардино, а теперь сама передаёт властям данные.
Некоторые стали беспокоиться из-за того, как именно система отличит безобидные фотографии от детской порнографии. В соцсетях задумались, к чему может привести внедрение подобной функции, ведь всем «нечего скрывать» лишь до определённой степени.
Одним из главных критиков Apple оказался профессор по криптографии из университета Джонса Хопкинса Мэттью Грин. В разговоре с The New York Times он назвал новые возможности «опасным прецедентом, создающим технологии слежки, которыми могут воспользоваться правительства».
По его мнению, подобная система может помечать определённый контент на смартфонах, но оставляет Apple возможность в случае чего утверждать, что остальное зашифровано. При этом раньше позиция компании заключалась в том, что не может предоставить властям часть данных, потому что они зашифрованы целиком, и ни у кого кроме пользователей нет к ним доступа.
Я понимаю, что технологию будут использовать для сканирования облачных фотографий на стороне клиента. В конце концов это может стать ключевым ингредиентом для появления слежки в зашифрованных мессенджерах.
Похожие сомнения высказал Фонд электронных рубежей США (EFF) — некоммерческая организация, выступающая за защиту прав человека в цифровую эпоху. EFF выпустила обширный пост с критикой Apple, где отметила, что это не «скользкая дорожка», а полностью готовая система, ждущая внешнего давления. В организации отметили, что любой мессенджер, где читать или анализировать контент может кто угодно кроме отправителя и получателя нельзя называть безопасной.
Невозможно построить систему распознавания на стороне клиента, которая будет использоваться только для сканирования откровенных снимков, полученных или отправленных детьми. Одним из последствий будет нарушение ключевых обещаний о шифровании даже с благими целями и открытие двери для более широких злоупотреблений.
В Apple отрицают проблемы с безопасностью из-за внедрения новых функций. «Если вы храните коллекцию детского порно, то да, у вас проблемы. Для всех остальных ничего не изменится», — пояснил глава по приватности Apple Эрик Нойеншвандер. Он также отметил, что Apple отклонит любые запросы правительств о разработке других подобных систем, а новые функции «защищены от злоупотреблений».
Многие считают функцию безопасной. Документация это подтверждает
Далеко не все раскритиковали компанию в борьбе с детской порнографией. Специалисты по криптографии и журналисты изучили документацию и заявили, что всё безопасно.
Как пояснил профессор университета Бар-Илан Бенни Пинкас, Apple на самом деле не сканирует фото прямо на устройствах. На стороне пользователя система только формирует специальный ваучер безопасности, который дважды шифруется случайным ключом — всё остальное происходит на сервере.
Пинкас также пояснил, что система может распознавать лишь заранее известные откровенные детские снимки. Это не самообучающайся алгоритм и не система распознавания, а инструмент для сравнения «слепка» (хэша) изображения пользователя с базой фотографий детского насилия, предоставленных государственными организациями.
При этом сама база данных не будет храниться в открытом виде: она тоже будет доступна в виде хэша, то есть пользователи и Apple не смогут увидеть изображения. После определённого количества найденных совпадений подозрительные фотографии передадут сотруднику Apple, который вручную проверит, что они соответствуют образцу.
Если всё подтвердится, то аккаунт заблокируют, а данные передадут властям. По мнению Apple, такой подход гарантирует, что данные пользователей, не хранящих детской порнографии, не увидят ни сотрудники компании, ни власти.
В поддержку Apple также высказался Хани Фарид — профессор по компьютерным наукам в Университете Беркли, который помог разработать технологию хешей, которую применила компания. По его мнению, любой возможный риск перекрывается пользой, которую принесёт защита детей.
Если будут приняты разумные меры безопасности, то я думаю преимущества перевесят недостатки.
Журналист Джо Россиньол также уточнил детали работы системы. Оказалось, что проверка изображений не заработает, если пользователь отключил выгрузку фото в iCloud. А уведомления об откровенных снимках родителям нужно включать вручную, причём они доступны только для аккаунтов детей до 13 лет. Родители не смогут включить уведомления на профили детей от 13 до 17 лет: те смогут смотреть любые откровенные изображения в «Сообщениях», если захотят.
Некоторые техноэнтузиасты также высказались за позицию Apple. По их мнению, компания всё сделала правильно, а критики пытаются увести разговор «не в ту сторону».
То же самое делает любой фотообменник, который люди когда-либо использовали, отметил энтузиаст Дерек Повазек. Но этого никто не замечает, пока не начнёт обмениваться детской порнографией.
По мнению Повазека, нововведения Apple также облегчают работу модераторам, у многих из которых из-за постоянного просмотра шок-контента развивается ПТСР. Подобные системы позволяют не видеть снимки детского насилия и не травмировать себе психику.
Почему Apple не могла избежать внедрения новых функций
На самом деле крупные технологические компании и так многие годы используют подобные системы для борьбы с детской порнографией. Google начал использовать распознавание изображений в облаке в 2008 году, Facebook — в 2011 году, а Twitter — в 2013-м. Все они тоже анализируют снимки по хешам и сравнивают с базой, которую предоставляет центр NCMEC.
Нововведения Apple в первую очередь нацелены на США, и, возможно, даже не будут работать в России и многих других странах. По крайней мере, информации об этом пока нет. В Штатах технологические компании по закону обязаны распознавать контент с детским насилием и сообщать о нём, но Apple исторически делала это меньше остальных.
За 2020 год Facebook отчитался о 20,3 миллионах случаев распознавания такого контента, а Apple — только о 265. Такой огромный разрыв возник, потому что компания Тима Кука не внедряла распознавание подобных материалов, но это всегда было неизбежностью: штаб-квартира Apple находится в США, и компания не может не исполнять местные законы.
Пока нововведения для защиты детей сами по себе и правда кажутся безопасными: предупреждение родителей будет работать только опционально для детей младше 13 лет, а проверка на детскую порнографию — это лишь сравнение с конкретной базой снимков.
Обычным пользователям, у которых есть фотографии детей или маленьких братьев и сестёр, пока не о чем беспокоиться. Хотя система может ошибиться в отдельных случаях (Apple говорит об одном шансе на триллион в год), для заморозки аккаунта потребуется целая коллекция обнаруженных совпадений.
Вероятно, новые функции также действительно помогут в борьбе с распространением детского порно: iCloud, очевидно, используют и для этого, как и другие файлообменники, но до сих пор Apple ничего не делала с проблемой.
С точки зрения регуляции — это изящное технологическое решение, но оно вызывает вопросы о политике Apple в будущем. До сих пор компания твёрдо занимала позицию о невозможности работы с зашифрованным контентом. Теперь данные формально остаются зашифрованы, но в отдельных случаях (если снимок совпал с базой NCMEC) — уже нет.
Легко представить, как далеко это может зайти в российских реалиях с базой экстремистского контента. Ведь по такой же схеме можно сравнивать и запрещённые мемы из базы Минюста с фотографиями пользователей. С другой стороны, если наши правоохранительные органы займутся чем-то подобным, то уже будет неважно, о какой компании речь.
Так или иначе, теперь в знаменитый слоган Apple «всё, что происходит на вашем iPhone, остаётся на вашем iPhone», стоит добавить примечание — только если у вас отключён iCloud.
Билборд Apple на CES 2019
#разборы #apple #приватность