Рубрика развивается при поддержке
Advertisement

Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri Статьи редакции

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Apple объявила о расширении функций для защиты детей на всех своих операционных системах — iOS, iPadOS, macOS и watchOS. Компания начнёт размывать откровенные снимки в «Сообщениях», предупреждать родителей о получении и отправке сексуальных фотографий, сканировать контент в iCloud и добавит руководства для безопасности в Siri.

Компания пояснила, что хочет защитить детей от «преследователей, которые используют средства коммуникации для привлечения и эксплуатации». Для этого Apple внедряет новые опции в трёх областях: «Сообщениях», iCloud, а также в Siri — возможности разработали совместно с экспертами по детской безопасности.

Размытие откровенных снимков и предупреждение родителей в «Сообщениях»

С выходом iOS и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщений» начнёт использовать машинное обучение на каждом конкретном устройстве для распознавания откровенного контента. Алгоритмы будут локально сканировать фотографии, но сама Apple не получит доступ к данным — всё будет происходить на устройствах.

Изображение Apple

В случае получения откровенного контента «Сообщения» автоматически размоют снимок, а также расскажут детям о том, что они могут не смотреть подобные фотографии. Дети также не смогут отправить сексуальные фото — их предупредят, а родителям сообщат, если снимок всё же отправят или посмотрят.

Распознавание фото в iCloud и передача полиции данных о сексуальном насилии над детьми

Новые iOS и iPadOS также начнут бороться с распространением контента с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Apple будет распознавать откровенные фотографии в iCloud и передавать данные властям. В США технология позволит компании отчитываться об опасных случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC). Организация будет работать сообща с местными властями в разных штатах.

Сканирование снимков в iCloud также будет происходить приватно: для этого Apple будет использовать машинное обучение на устройствах. Нейросети начнут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями по детской безопасности. В Apple утверждают, что эта база данных будет нечитаемым набором хешей, которые безопасно хранятся на устройствах.

Проверку на сексуальное насилие над детьми будут проводить до выгрузки фотографии в само облако iCloud. Сравнение работает на криптографической технологии «пересечения приватных наборов» — она проводит сравнение, не выдавая результат. Устройство будет создавать безопасный криптографический ваучер, который расшифровывает результаты сравннеия вместе с дополнительными данными о фотографии. Затем ваучер будут выгружать в iCloud вместе с изображением.

Apple также будет применять технологию «разделения секрета», которая позволит обезопасить ваучеры безопасности от расшифровки на стороне сервера до тех пор, пока пользователь не пересёк правила безопасности. В компании утверждают, что это гарантирует высокий уровень точности — система будет выдавать меньше одного из триллиона ложных результатов за год.

Только в случае фиксации нарушений сразу двумя технологиями Apple сможет интерпретировать контент ваучеров безопасности и сравнить изображения самостоятельно. Затем компания обещает вручную изучать каждый случай, чтобы подтвердить соответствие, отключит аккаунт пользователя и сообщит о нём в NCMEC. Пользователи смогут оспорить жалобу, если считают её ошибочной.

Новые руководства безопасности в Siri и подсказки в «Поиске»

Apple также начнёт лучше предупреждать и обучать юных пользователей систем и их родителей о том, как лучше вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы и предложит почитать о них подробнее.

Siri также начнёт предлагать дополнительную информацию детям и родителям о том, как реагировать на эксплуатацию детей и сексуальное насилие. Например, если пользователи спросят голосового ассистента, как сообщить о CSAM, то их направят на соответствующие ресурсы.

В Apple обещают со временем расширять ресурсы для защиты детей. Новые функции станут доступны с выходом новых версий систем осенью 2021 года. Компания также предоставила дополнительную информацию о нововведениях в подробной документации, включая выжимку об использовании технологий, протоколы безопасности, и независимые технические консультации экспертов.

0
138 комментариев
Популярные
По порядку
Написать комментарий...

Сегодня сканируют на цп, а завтра на мемы с путиным

68

Знакомая риторика про защиту детей и борьбу с терроризмом, лишь бы протащить бэкдоры и получить доступ к зашифрованным данным.

117
Парадный каякер
28

знакомая риторика педофилов - причислять себя к угнетаемым и меньшинствам. то, что защита детей иногда используется для политических манипуляций (наряду с многими другими темами), не должно мешать совершенствованию технологии их отлова и ограничения.

–62

Сейчас Инстаграм может легко заблокировать аккаунт какой-нибудь девочки гимнастки, у которой слишком много фоток в купальниках. Самое удивительное, что еще лет 30 назад детская нагота мельком появлялась в фильмах, в том числе советских, а уж фотографов, снимающих обнаженных детей (в разумных само собой ракурсах), было еще больше, в том числе в США. И никто не делал никакой проблемы и ни вопил о "сексуальном насилии".

5

Ты думаешь у них бэкдоров нет? А уязвимость нулевого дня, который пегас использовала?

1

Вспоминается разрисованное фото Путина, на котором ему добавили мейкап с помадой и подводкой. Вроде эту картинку занесли в реестр экстремистских материалов. 

12

Ага, так и вижу описание в реестре: Изображение солнцеликого с помадой на губах

1

В англоязычном пространстве обсуждения уже не первый день по полтыщи комментариев набирают, потому что даже до фанбоев дошло, что под соусом защиты детей явно какой-то огромный анальный зонд потребовалось протащить. А тут переписали пресс-релиз «Apple усилит защиту детей» и сидят улыбаются. Туземцы, что с них взять.

40

Пока в основном дошло до айтишников. Расскажи про эти бэкдоры яжматерям, они только аплодировать будут.

7

Это пока яжматерей не начнут сажать за фотки их чад.

29

Конечно будут, раньше самим приходилось лица личинусов стикерами замазывать а сейчас за них это нейросеточка будет делать.

1

Россиянам к большому брату не привыкать

3

Доброе утро. Apple уже давно может смотреть всё, что ты держишь в облаке, но по решению суда. Их позиция, в облаке мы смотрим, что у тебя на устройстве - нет. 

0

Вы что-то путаете, у Apple никогда не было моих данных, ни «в облаке», ни «на устройстве».

Кроме того, эта логика неверна (и происходит из пустой веры в то, что в рекламе говорят правду). Сам факт того, что компании понадобилось впихнуть пользователям нововведение, невзирая на ожидаемое закономерное возмущение, говорит о том, что извлечения данных пользователя из частичной онлайн-копии им (или не им, а заказчикам) оказалось недостаточно, и поэтому была добавлена возможность централизованно контролировать все данные на устройстве.

3

Вообще-то Apple, собирается сканировать содержимое iPhone, если даже полностью отключить iCloud. При выявлении так называемого подозрительного контента, фотография будет выгружаться в зашифрованном виде, расшифровываться на серверах Apple и проверяться специальной командой. Родители маленьких детей уже недовольны, что на их детей будут смотреть сотрудники яблочной компании. “what happens on your iphone stays on your iphone” - уже не работает. Получается: «Мы спрятали ваш IP от трёх сайтов, зато проскандировали всю вашу фототеку, выгрузили 5 ваших фотографий, просмотрели их и выдали ментам.» Браво, Apple.

33

Ну, не надо дезинформировать все же. Apple будет сканировать только фото iCloud:

Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. ... The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.

Плюс, оно (пока) будет искать только фотографии из списка запрещенного контента, а не любой контент, который нейросети покажется неуместным.

–2

Фотографии в iCloud уже давно официально сканируются и для этого не нужны мощности персонального устройства.

6

Because Apple is scanning ‌iCloud Photos‌ for the CSAM flags, it makes sense that the feature does not work with ‌iCloud Photos‌ disabled. Apple has also confirmed that it cannot detect known CSAM images in iCloud Backups if ‌iCloud Photos‌ is disabled on a user's device.

0

Реальная ситуация — у ребёнка на попе что-то там покраснело — раздражение кожи было. Врач сказал периодически фотографировать, чтобы сравнивать — растёт пятно или уменьшается. И родной Эппол теперь меня в педофилы зачислит и мои картинки размоет??? Дичь

27

Нахуя фотографировать, чтобы сравнивать, на глаз не видно? А если на глаз не видно, по фото как будет видно?

–20

Я родинки фоткаю, потому что фиг я запомню как они выглядели полгода назад. 

12

Сдадите в поликлинику анализы мочи и кала, вместе с результатами получите талон на фотографию попы, там будет QR-код, по которому телефон разрешит навести на неё камеру. Деньги автоматически спишутся с привязанной карточки, отпечатки с сенсора автоматически уйдут в МВД.

4

Ты гражданин сша?

–3
Парадный каякер

То что эпол начала со штатов, не значит, что и до нас не дойдет. А так подождешь - и автоматизируют выписку тысячных штрафов DMCA за пиратский контент, а локальные авторити ещё накинут эмбеды картинок с накрашенным Путиным, информацией о владельцах которых Apple с удовольствием поделится.

4

Что мешает эплу применить подобные технологии в других странах?

0

Вроде как они проверяют только на наличие известного ЦП, то есть фоток которые раньше уже засветились и есть в соответствующей базе. Искать новое ЦП в личных фото пользователь пока вроде бы не планируется.

1

С базой данных сравнивать же будут

0

Родной Эппол тебя в педофилы зачислит, если до этого тебя полицейские поймали и осудили, или ты скачал чужие фотки покрасневшей попы у чела, которого тоже осудили.

Впрочем, это не отменяет того факта, насколько это опасный прецедент.

–7

Компания пояснила, что хочет защитить детей от «хищников, которые используют средства коммуникации для привлечения и эксплуатации»

От ХИЩНИКОВ! Вам ещё не страшно за детей?

25
Парадный каякер

Слишком дословный перевод, в США педофилов действительно называют хищниками (predators).

4

Predators это не только педофилы, это вообще любые озабоченные кто сталкерит или охотится(!) за людьми, которые его сексуально привлекают

2
Парадный каякер

Старая-добрая защита детей — каждый раз отрабатывает на «ура»

25

Если кому-то спасет жизнь, то ты может и потерпишь, что твои нюдсы посмотрят. 

–7
Парадный каякер

Ты хочешь, ты и терпи, других не надо в это втягивать. Кстати, можешь начать уже сейчас и выложить дамп своей галереи на файлообменник, чтобы эксперты TJ её изучили на предмет крамолы. Это может спасти кому-то жизнь!

12

Когда камеру в каждую комнату тебе поставят также будешь говорить?

2
Парадный каякер

Братан, ну помимо педофилов есть гораздо более многочисленные и опасные преступники — убийцы, маньяки, насильники. Давай постоянно короче телефон будет слушать и если вдруг крики убивают какие, то копов вызовет? Ну ты ж никак не пострадаешь, ну.

0
Парадный каякер

Комментарий удален по просьбе пользователя

6

Не "мат", а "хейтспич" и "токсичность".

9

Доброй ночи, Дамир!

6

И Сергей Звезда!

3

Скоро покупая андройд:
- зачем тебе андройд, ты педофил что ли?
- эпл внесла настоящий вклад для борьбы с преступностью, а что сделал андройд/гугл? покрывает преступников и педофилов ред.

6

Интересно, как быстро они доберутся до защиты женщин от угнетения и эксплуатации. Будет ли считаться семейное порно сексуальной эксплуатацией?

5
Парадный каякер

Комментарий удален по просьбе пользователя

0

Пришло время сменить Айфон на Андроид.
Почему никто этого не написал? Ссут что яблочное лобби их заминусует?

4

Как бы, к сожалению и на андройде непонятная ситуация. Любой софт типа сбербанк онлайн может сканировать твои фотки с мемами и вон, как выше, один из них окажется экстремистским материалом. А работают ли с гебней всякие сяоми и хуавеи с их miui и прочим калом -  вопрос остается открытым, например.

0

Смотри, в твоём посте есть ответы на вопросы: Сбербанк не нужен и в РФ делать нечего.

4

многие приложения, которые подразумевают в своих функциях загрузку фото, будут просить доступ к твоим альбомам. Непонятно зачем ты приплёл сбербанк.

0

Любой софт типа сбербанк онлайн

Необязательно это говно держать в телефоне. Сбербанк онлайн отказывается работать без полного доступа к системе, поэтому идёт нахер с моего телефона, так же и с остальным.

0

да как бы параноики информбезопасности давно ушли от продукции Apple. Она вся дырявая, хоть комп, хоть мобилка.

–1

Пруфы? На андроиде типа дыр нет?

0

А когда эппл начнет раздавать детям бесплатные айфоны?

2
Парадный каякер

когда они захотят подружиться с тим куком

3

Нейросеть: выглядит как хуй - блюрим

2
Парадный каякер

Корпы теперь буквально в трусы лезут, охуенно.

1

Комментарий удален по просьбе пользователя

1

изучать каждый случай, чтобы подтвердить соответствие, отключит аккаунт пользователя и сообщит о нём в NCMEC. Пользователи смогут оспорить жалобу, если считают её ошибочной.

То есть сначала тебя сдадут гестапо и отключат аккаунт, а потом ты сможешь оспорить лол. А те дни/недели пока ты оспаривать будешь, как аккаунтом пользоваться?

1

Зачем тебе аккаунт в Гуантанамо? Побег координировать будешь, мерзкий террорист? )

0

Также планируется платная подписка 59$/мес для отключения этой опции. 

1

Еще интересно, откуда они брали весь этот "контент" для обучения нейросети, у пользователей айфонов?

1
Парадный каякер

Господа, просветите невежду: а можно с яблоустройствами работать без Айклауда? 

1

Можно, а вот без яблочной учётки не выйдет.

0

Комментарий удален по просьбе пользователя

–4
Парадный каякер

Блин только год назад переехал с андроида на эпол, а тут обратно придется, если конечно гугл тож такие плюхи не внедрит

0

Как живётся в мире элиты и роскоши, расскажи?

0

внедрит конечно же. Не думаю, что они исключительно по своей воле такое делают.

0
Парадный каякер

Ладно там дети, так и не увидел как это будет касаться взрослых и их порнухи (не детской) да и не только прона, всякие разного рода интимные фоточки и видосики? Тоже замылит и сдаст FBI?))

0

Какой удобный мотив для слежки за пользователями.

0

Эпл что-то там в рекламе про конфиденциальность вещала, или это другое? Эпл считает каждого обладателя айфона потенциально педофилом?

0

Комментарий удален по просьбе пользователя

0
Читать все 138 комментариев
null