Рубрика развивается при поддержке
Advertisement
Технологии
Sasha Shambilova

Apple отложила введение проверки фотографий в iCloud на детское порно на «неопределённый срок» Статьи редакции

Функцию раскритиковали из-за нарушения приватности.

Компания планирует «собрать информацию и внести улучшения» перед внедрением функции. Об этом компания сообщила в письме Apple Insider.

В прошлом месяце мы объявили о планах внедрить функции, призванные помочь защитить детей от преследователей, которые используют средства коммуникации для привлечения и эксплуатации, и ограничить распространение материалов для сексуального насилия над детьми.

Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили, что нам нужно ещё несколько месяцев, чтобы собрать информацию и внести улучшения, прежде чем выпустить эти критически важные функции безопасности детей.

Apple

При этом, как отмечает Apple Insider, компания не объяснила, с кем собирается консультироваться по вопросу улучшений и какую информацию планирует собирать.

6 августа Apple объявила о расширении функций для защиты детей на всех своих операционных системах. Они должны были заработать с выходом новых версий систем для iPhone, iPad, MacBook и Watch.

Компания планировала размывать откровенные снимки в «Сообщениях», предупреждать родителей о получении и отправке сексуальных фотографий, сканировать откровенный контент в iCloud и передавать данные полиции, а также добавить руководства для безопасности в Siri.

После публикации Apple в соцсетях и СМИ начали обвинять компанию в нарушении приватности. По задумке компании все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали, что проверки будут проходить на устройствах.

После масштабной критики принцип работы новой функции объяснил вице-президент Apple Крейг Федериги. По его словам, к путанице привело одновременное объявление о двух разных инструментах: функции определения контента с сексуальным насилием над детьми в облачном хранилище iCloud и опции, отвечающей за оповещение родителей о получении и отправке сексуальных фотографий.

Безопасность функции подтвердил и пользователь Reddit, который обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3 и опубликовал его на GitHub. Он сообщил, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

В 2020 году Apple уже откладывала ввод новых функций из-за критики — тогда Facebook пожаловался, что ограничения отслеживания пользователей в iOS 14 снизит эффективность рекламы. Позже функцию всё равно внедрили.

0
49 комментариев
Популярные
По порядку
Написать комментарий...
Виртуальный дым

 В Apple сообщили, что им нужно дополнительное время для улучшения работы функции.

Точнее для того, чтобы шумиха улеглась и потом без лишнего шума ввести

67

Им нужно время
п р о а н а л и з и р о в а т ь контент.

8

Просто не могут уговорить кука и прочих топов стереть свою коллекцию.

1

Потребовалось время для белых списков устройств.

1

Скорее дали время удалить весь контент.

0

Комментарий удален

Виртуальный дым

Ну и зря, дети важнее всего этого цирка конфенциальности 

–34

Дети вообще не важнее никому, кроме своих родителей, которые часто заблуждаются на счет важности своих отпрысков

32

Не совсем. Дети (не только свои) нужны всем тем, кто собрался жить до старости, чтобы было из чего платить пенсию и чтобы кто-то работал 

–1

Нужны лишь затем чтобы собирать нологи и пустить их на фронт как мясо.

15

Пенсию в РФ, очень смешно

2
1

Комментарий удален

 Ну местные чмошники, которые получают удовольствие от вседозволенности в интернете

сканирование контента на твоём личном устройстве, даже если контент никогда не выгружался в интернет

Ок, понял тебя 

4
Виртуальный дым
1

Отрабатывают повесточку, ну чо ты мешаешь работать?

0

Повесточку Apple? Интересно сколько ему платят, 15 центов за комментарий?

0

Чувак с регистрацией сегодня задвигает что в интернете слишком много свободы, чья это повесточка по твоему?

3

Путина? Ты из этих что-ли, у кого "кругом враги"?

0

А ты из которых?

0

Я в этом плане за плюрализм мнений, так сказать

0

Комментарий удален

Пошёл соседке заплатил и пофоткал её, например

0

Комментарий удален

Это если ты мало заплатил ;)
Но всё же идея сканировать контент на личных устройствах - так себе. Сегодня нельзя подростков фоткать, завтра нельзя мемы с неграми смотреть, послезавтра что?

0

Комментарий удален

Раз тебе важнее, то сам себе эти зонды и ставь. 

1

Вот ты как-нибудь сам со своими детьми разберись и защити их ото всех бед

0

Если власти заговорили о безопасности - держитесь за кошельки, если о защите детей - урежут свободы с правами. Если говорят о стабильности - срочно покупай гречку. 

12

Барнаул, Алтайский край

7

Это пример россиянам, как нужно отстаивать свою гражданскую позицию ред.

4

Каким русским? Которые живут в Украине? На Брайтон-бич? Или, всё же, это пример россиянам?

0

Спасибо, отредактировал комментарий

3

Ты крут. 😲

2

На самом деле Барнаулу алтайский край нужно больше всего бояться этой функции

3

..прежде чем выпустить эти критически важные функции безопасности детей.

КРИТИЧЕСКИ ВАЖНЫЕ функции ДЛЯ ЗАЩИТЫ ДЕТЕЙ!!!

Запоминается последнее (Штирлиц)

3

Комментарий удален по просьбе пользователя

2
Виртуальный дым

А тут уже писали, что в этом сентябре Apple не будут презентовать новое поколение iWatch, ибо продукт пока сырой и не готов к серийному выпуску?

2

Ну и похуй?

0
Виртуальный дым

В целом - да.
Просто, новая модель очень сложна.
Она, чуть ли, и артериальное давление должна уметь измерять.

2

 собрать информацию и внести улучшения

Больше картинок собрались искать?

2

Вот раньше то Apple — О-го-го!

А теперь... эх...

2

Комментарий удален

Особенно Бидон-младший

0

ебать новость с молнией

1

Комментарий удален по просьбе пользователя

1

Так-то iOS уже сканирует фотки. Например, чтобы отметить людей на фото или, если написать cat или document в поиске, то покажет соответственно. Сканирование происходит без участия клауда — прямо на девайсе. Так что по сути это не новый функционал. 

1
Виртуальный дым

запустят уже на новой версии)0

ну и нужно собрать побольше материала для нейронки

0
Виртуальный дым

Комментарий удален по просьбе пользователя

0

Комментарий удален по просьбе пользователя

0

Не прокатило

0
Виртуальный дым

Ферман выдохнул с облегчением

0

По его словам, к путанице привело одновременное объявление о двух разных инструментах: функции определения контента с сексуальным насилием над детьми в облачном хранилище iCloud и опции, отвечающей за оповещение родителей о получении и отправке сексуальных фотографий. - плохо отмазывается. Срать на детей проблема в том что аппарат стучит на тебя и мало того ещё и рандомный круг лиц читает абсолютно всю инфу что ты выгрузил в облако. Может на фоне этого чудесного скандала станет больше - линукс фонов. ред.

0

При этом, как отмечает Apple Insider, компания не объяснила, с кем собирается консультироваться по вопросу улучшений и какую информацию планирует собирать.

касдев хуйле ¯\_( ͡° ͜ʖ ͡°)_/¯

0

Цп это конечно очень плохо, но это не забота Apple. Они делают первоклассные продукты, ОС… а это всё пусть оставят сторонним организациям и правоохранительным органам.
Но хер там. Сейчас шумиха уляжется и выкатят обнову (

–1
Читать все 49 комментариев
null