{"id":1064,"title":"\u041f\u0440\u043e\u0439\u0434\u0438\u0442\u0435 \u044d\u0442\u043e\u0442 \u0442\u0435\u0441\u0442, \u043f\u043e\u043a\u0430 \u043a\u0440\u0438\u043f\u0442\u043e\u0433\u0440\u0430\u0444\u0438\u044e \u0438\u0437 \u0435\u0434\u044b \u043d\u0435 \u0437\u0430\u043f\u0440\u0435\u0442\u0438\u043b\u0438","url":"\/redirect?component=advertising&id=1064&url=https:\/\/tjournal.ru\/special\/kaleidofood&placeBit=1&hash=f30606208ead4bb67ee3624f20be3cd7a9b9c0ae8b2bd8a40218541848752d25","isPaidAndBannersEnabled":false}

Apple теперь сканирует загруженный пользователями контент на предмет жестокого обращения с детьми

Эндрю Орр (Andrew Orr, пользователь портала "Mac Observer") обнаружил, что 9 Мая 2019 Apple обновила политику конфиденциальности, и в разделе "Как мы используем личную информацию" появился следующий пункт:

Мы также можем использовать вашу личную информацию в целях обеспечения безопасности учетной записи и сети, в том числе для защиты наших сервисов в интересах всех наших пользователей, и предварительного просмотра или сканирования загруженного контента для выявления потенциально незаконного контента, в том числе материалов о сексуальной эксплуатации детей.

Пользователь предполагает, что Apple могла делать это годами, однако упоминание об этом в политике конфиденциальности появилось только сейчас. Эндрю использовал сервис Wayback Machine, чтобы убедиться что в предыдущих версиях политики этого пункта не было.

Так же Эндрю считает, что Apple использует технологию PhotoDNA, разработанную Microsoft в 2009 году. PhotoDNA в основном используется в профилактике детской порнографии, и работает путем вычисления уникального хеша изображения. Этот хэш вычисляется так, что он устойчив к изменениям в изображении, включая изменение размера и незначительные изменения цвета. Он работает следующим образом: преобразовывает изображение в черно-белое, изменяет его размер, разбивает его на сетку, и ищет градиенты интенсивности или края объектов. Данный алгоритм используется такими компаниями, как Facebook, Twitter, Google и другими. В основном, это работает путем создания хэша фотографии или видео, и дальнейшим сравнением его с известной базой хэшей в NCVIP.

Согласно FAQ о PhotoDNA, изображения мгновенно преобразуются в безопасный хэш и не могут быть восстановлены. PhotoDNA специально используется для детской порнографии и не может быть использована для поиска другого контента.

В обзоре системы безопасности iCloud Apple сообщает, что данные клиентов шифруются при передаче и на серверах iCloud. Это касается как приложения "Фото", так и содержимого, хранящегося в iCloud Drive. Поэтому Эндрю интересуется, в какой момент Apple сканирует контент. Ясно, что перед тем, как он будет зашифрован.

Apple также хранит ключи шифрования в облаке, в соответствии с Руководством [PDF] по юридическим процессам. Благодаря этому Apple даёт пользователям возможность сбросить пароль, а так же предоставляет правоохранительным органам данные в рамках повесток. Далее, юридические условия Apple для iCloud гласят следующее:

C. Удаление Материалов

Вы подтверждаете, что Apple не несет ответственности ни за какие Материалы, предоставляемые другими лицами, и не обязана проверять такие Материалы. Однако компания Apple оставляет за собой право в любое время определять, являются ли Материалы допустимыми и соответствуют ли они данному Соглашению, и может в любое время просмотреть, переместить, отклонить, изменить и/или удалить Материалы без предварительного уведомления и по своему усмотрению, если эти Материалы нарушают данное Соглашение или нежелательны в других отношениях.

Как Apple может определить допустимый ли контент или нет, если они не сканируют контент iCloud, даже несмотря на то, что он зашифрован? Или, как предполагает Эндрю, они выполняют все это сканирование во время загрузки / до шифрования.

Так же Эндрю говорит, что термин "допустимый" должен иметь чёткое определение, так как в 2012 году Apple удалила сценарий прикрепленный к электронному письму, потому что он содержал строчку описывающую персонажа, который смотрел рекламу порно-сайта на компьютере.

Важной деталью является то, что сквозное шифрование для контента iCloud включается только при включении двухфакторной аутентификации. Но это не относится к iCloud Drive или приложению "Фото".

Эндрю обратился к Apple за уточнениями, но пока не получил ответ.

0
18 комментариев
Популярные
По порядку
Написать комментарий...
Tim Moore

Дедское порно

Ответить
7
Развернуть ветку
Иной бинокль

Комментарий удален по просьбе пользователя

Ответить
3
Развернуть ветку
Иной бинокль

Он работает следующим образом: преобразовывает изображение в черно-белое, изменяет его размер, разбивает его на сетку, и ищет градиенты интенсивности или края. Данный алгоритм используется такими компаниями, как Facebook, Twitter, Google и другими.

Это ведь типичный перцептивный хеш-алгоритм, а не супер-технология майкрософта.

Ответить
2
Развернуть ветку
IO

Каким надо быть идиотом чтобы смотреть детское порно и не пользоваться Tails хотя бы?

Ответить
1
Развернуть ветку
Иной бинокль

Комментарий удален по просьбе пользователя

Ответить
1
Развернуть ветку
Длительный диод

Комментарий удален по просьбе пользователя

Ответить
3
Развернуть ветку
Неопределенный татарин

Комментарий удален по просьбе пользователя

Ответить
2
Развернуть ветку
Длительный диод

Комментарий удален по просьбе пользователя

Ответить
1
Развернуть ветку
Немалый корабль

Комментарий удален по просьбе пользователя

Ответить
0
Развернуть ветку
Длительный диод

Комментарий удален по просьбе пользователя

Ответить
0
Развернуть ветку
Немалый корабль

Комментарий удален по просьбе пользователя

Ответить
0
Развернуть ветку
Длительный диод

Комментарий удален по просьбе пользователя

Ответить
0
Развернуть ветку
Иной бинокль

Анимешником

Ответить
3
Развернуть ветку
Импортный огонь

Комментарий удален по просьбе пользователя

Ответить
2
Развернуть ветку
Иной бинокль

Комментарий удален по просьбе пользователя

Ответить
2
Развернуть ветку
Sergey Lukianov

Кук собирает свою коллекцию порно. Старый шалун

Ответить
0
Развернуть ветку
Иной бинокль

PhotoDNA специально используется для детской порнографии и не может быть использована для поиска другого контента.

Какой-то особый порно-код? Что мешает банить с его помощью неугодные мемы или фото Стрейзанд? Лапшу на уши вешают, по ходу.

Ответить
0
Развернуть ветку
Иной бинокль

DELETED

Ответить
0
Развернуть ветку
Читать все 18 комментариев
null