{"id":1026,"title":"\u041f\u0440\u043e\u043a\u0430\u0447\u0430\u0439\u0442\u0435 \u043f\u0438\u0449\u0435\u0432\u0443\u044e \u0438\u043d\u0442\u0443\u0438\u0446\u0438\u044e \u0432 \u0442\u0435\u0441\u0442\u0435 \u0441 \u0448\u0438\u0444\u0440\u0430\u043c\u0438 \u0438\u0437 \u0435\u0434\u044b","url":"\/redirect?component=advertising&id=1026&url=https:\/\/tjournal.ru\/special\/kaleidofood&placeBit=1&hash=9cb013a59ccce4d2e86882e627db11b6482213ed208d150cb78cb4997d731210","isPaidAndBannersEnabled":false}

Apple усилит защиту детей — начнёт размывать откровенные снимки в «Сообщениях», проверять iCloud и предупреждать в Siri Статьи редакции

Компания будет проверять контент прямо на устройствах с помощью нейросетей, натренированных на распознавание сексуальных снимков.

Apple объявила о расширении функций для защиты детей на всех своих операционных системах — iOS, iPadOS, macOS и watchOS. Компания начнёт размывать откровенные снимки в «Сообщениях», предупреждать родителей о получении и отправке сексуальных фотографий, сканировать контент в iCloud и добавит руководства для безопасности в Siri.

Компания пояснила, что хочет защитить детей от «преследователей, которые используют средства коммуникации для привлечения и эксплуатации». Для этого Apple внедряет новые опции в трёх областях: «Сообщениях», iCloud, а также в Siri — возможности разработали совместно с экспертами по детской безопасности.

Размытие откровенных снимков и предупреждение родителей в «Сообщениях»

С выходом iOS и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщений» начнёт использовать машинное обучение на каждом конкретном устройстве для распознавания откровенного контента. Алгоритмы будут локально сканировать фотографии, но сама Apple не получит доступ к данным — всё будет происходить на устройствах.

Изображение Apple

В случае получения откровенного контента «Сообщения» автоматически размоют снимок, а также расскажут детям о том, что они могут не смотреть подобные фотографии. Дети также не смогут отправить сексуальные фото — их предупредят, а родителям сообщат, если снимок всё же отправят или посмотрят.

Распознавание фото в iCloud и передача полиции данных о сексуальном насилии над детьми

Новые iOS и iPadOS также начнут бороться с распространением контента с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Apple будет распознавать откровенные фотографии в iCloud и передавать данные властям. В США технология позволит компании отчитываться об опасных случаях в Национальный центр пропавших и эксплуатируемых детей (NCMEC). Организация будет работать сообща с местными властями в разных штатах.

Сканирование снимков в iCloud также будет происходить приватно: для этого Apple будет использовать машинное обучение на устройствах. Нейросети начнут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями по детской безопасности. В Apple утверждают, что эта база данных будет нечитаемым набором хешей, которые безопасно хранятся на устройствах.

Проверку на сексуальное насилие над детьми будут проводить до выгрузки фотографии в само облако iCloud. Сравнение работает на криптографической технологии «пересечения приватных наборов» — она проводит сравнение, не выдавая результат. Устройство будет создавать безопасный криптографический ваучер, который расшифровывает результаты сравннеия вместе с дополнительными данными о фотографии. Затем ваучер будут выгружать в iCloud вместе с изображением.

Apple также будет применять технологию «разделения секрета», которая позволит обезопасить ваучеры безопасности от расшифровки на стороне сервера до тех пор, пока пользователь не пересёк правила безопасности. В компании утверждают, что это гарантирует высокий уровень точности — система будет выдавать меньше одного из триллиона ложных результатов за год.

Только в случае фиксации нарушений сразу двумя технологиями Apple сможет интерпретировать контент ваучеров безопасности и сравнить изображения самостоятельно. Затем компания обещает вручную изучать каждый случай, чтобы подтвердить соответствие, отключит аккаунт пользователя и сообщит о нём в NCMEC. Пользователи смогут оспорить жалобу, если считают её ошибочной.

Новые руководства безопасности в Siri и подсказки в «Поиске»

Apple также начнёт лучше предупреждать и обучать юных пользователей систем и их родителей о том, как лучше вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы и предложит почитать о них подробнее.

Siri также начнёт предлагать дополнительную информацию детям и родителям о том, как реагировать на эксплуатацию детей и сексуальное насилие. Например, если пользователи спросят голосового ассистента, как сообщить о CSAM, то их направят на соответствующие ресурсы.

В Apple обещают со временем расширять ресурсы для защиты детей. Новые функции станут доступны с выходом новых версий систем осенью 2021 года. Компания также предоставила дополнительную информацию о нововведениях в подробной документации, включая выжимку об использовании технологий, протоколы безопасности, и независимые технические консультации экспертов.

0
138 комментариев
Популярные
По порядку
Написать комментарий...
Покажи, где дядя тебя трогал

Сегодня сканируют на цп, а завтра на мемы с путиным

Ответить
68
Развернуть ветку
Покажи, где дядя тебя трогал

Знакомая риторика про защиту детей и борьбу с терроризмом, лишь бы протащить бэкдоры и получить доступ к зашифрованным данным.

Ответить
117
Развернуть ветку
Любой якорь
Ответить
28
1 комментарий
Развернуть ветку
Ranae Est

знакомая риторика педофилов - причислять себя к угнетаемым и меньшинствам. то, что защита детей иногда используется для политических манипуляций (наряду с многими другими темами), не должно мешать совершенствованию технологии их отлова и ограничения.

Ответить
–62
12 комментариев
Развернуть ветку
Alexander Star

Сейчас Инстаграм может легко заблокировать аккаунт какой-нибудь девочки гимнастки, у которой слишком много фоток в купальниках. Самое удивительное, что еще лет 30 назад детская нагота мельком появлялась в фильмах, в том числе советских, а уж фотографов, снимающих обнаженных детей (в разумных само собой ракурсах), было еще больше, в том числе в США. И никто не делал никакой проблемы и ни вопил о "сексуальном насилии".

Ответить
5
2 комментария
Развернуть ветку
Единый химик

Комментарий удален по просьбе пользователя

Ответить
1
1 комментарий
Развернуть ветку
norm

Вспоминается разрисованное фото Путина, на котором ему добавили мейкап с помадой и подводкой. Вроде эту картинку занесли в реестр экстремистских материалов. 

Ответить
12
Развернуть ветку
Кирилл Краснов

Ага, так и вижу описание в реестре: Изображение солнцеликого с помадой на губах

Ответить
1
4 комментария
Развернуть ветку
vasya pupkin

В англоязычном пространстве обсуждения уже не первый день по полтыщи комментариев набирают, потому что даже до фанбоев дошло, что под соусом защиты детей явно какой-то огромный анальный зонд потребовалось протащить. А тут переписали пресс-релиз «Apple усилит защиту детей» и сидят улыбаются. Туземцы, что с них взять.

Ответить
40
Развернуть ветку
Покажи, где дядя тебя трогал

Пока в основном дошло до айтишников. Расскажи про эти бэкдоры яжматерям, они только аплодировать будут.

Ответить
7
Развернуть ветку
J S

Это пока яжматерей не начнут сажать за фотки их чад.

Ответить
29
3 комментария
Развернуть ветку
Т ЛькТв Я

Конечно будут, раньше самим приходилось лица личинусов стикерами замазывать а сейчас за них это нейросеточка будет делать.

Ответить
1
Развернуть ветку
Stanley H. Tweedle

Россиянам к большому брату не привыкать

Ответить
3
Развернуть ветку
Егор Владимирович

Доброе утро. Apple уже давно может смотреть всё, что ты держишь в облаке, но по решению суда. Их позиция, в облаке мы смотрим, что у тебя на устройстве - нет. 

Ответить
0
Развернуть ветку
vasya pupkin

Вы что-то путаете, у Apple никогда не было моих данных, ни «в облаке», ни «на устройстве».

Кроме того, эта логика неверна (и происходит из пустой веры в то, что в рекламе говорят правду). Сам факт того, что компании понадобилось впихнуть пользователям нововведение, невзирая на ожидаемое закономерное возмущение, говорит о том, что извлечения данных пользователя из частичной онлайн-копии им (или не им, а заказчикам) оказалось недостаточно, и поэтому была добавлена возможность централизованно контролировать все данные на устройстве.

Ответить
3
Развернуть ветку
MEGAtraXXXer666

Вообще-то Apple, собирается сканировать содержимое iPhone, если даже полностью отключить iCloud. При выявлении так называемого подозрительного контента, фотография будет выгружаться в зашифрованном виде, расшифровываться на серверах Apple и проверяться специальной командой. Родители маленьких детей уже недовольны, что на их детей будут смотреть сотрудники яблочной компании. “what happens on your iphone stays on your iphone” - уже не работает. Получается: «Мы спрятали ваш IP от трёх сайтов, зато проскандировали всю вашу фототеку, выгрузили 5 ваших фотографий, просмотрели их и выдали ментам.» Браво, Apple.

Ответить
33
Развернуть ветку
K.A.

Ну, не надо дезинформировать все же. Apple будет сканировать только фото iCloud:

Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. ... The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.

Плюс, оно (пока) будет искать только фотографии из списка запрещенного контента, а не любой контент, который нейросети покажется неуместным.

Ответить
–2
Развернуть ветку
MEGAtraXXXer666

Фотографии в iCloud уже давно официально сканируются и для этого не нужны мощности персонального устройства.

Ответить
6
12 комментариев
Развернуть ветку
K.A.

Because Apple is scanning ‌iCloud Photos‌ for the CSAM flags, it makes sense that the feature does not work with ‌iCloud Photos‌ disabled. Apple has also confirmed that it cannot detect known CSAM images in iCloud Backups if ‌iCloud Photos‌ is disabled on a user's device.

Ответить
0
Развернуть ветку
Евгений Борисов

Реальная ситуация — у ребёнка на попе что-то там покраснело — раздражение кожи было. Врач сказал периодически фотографировать, чтобы сравнивать — растёт пятно или уменьшается. И родной Эппол теперь меня в педофилы зачислит и мои картинки размоет??? Дичь

Ответить
27
Развернуть ветку
Vasya Pupkin

Нахуя фотографировать, чтобы сравнивать, на глаз не видно? А если на глаз не видно, по фото как будет видно?

Ответить
–20
Развернуть ветку
Антон Пострунин

Я родинки фоткаю, потому что фиг я запомню как они выглядели полгода назад. 

Ответить
12
Развернуть ветку
vasya pupkin

Сдадите в поликлинику анализы мочи и кала, вместе с результатами получите талон на фотографию попы, там будет QR-код, по которому телефон разрешит навести на неё камеру. Деньги автоматически спишутся с привязанной карточки, отпечатки с сенсора автоматически уйдут в МВД.

Ответить
4
Развернуть ветку
Единый химик

Комментарий удален по просьбе пользователя

Ответить
–3
Развернуть ветку
Любой якорь

То что эпол начала со штатов, не значит, что и до нас не дойдет. А так подождешь - и автоматизируют выписку тысячных штрафов DMCA за пиратский контент, а локальные авторити ещё накинут эмбеды картинок с накрашенным Путиным, информацией о владельцах которых Apple с удовольствием поделится.

Ответить
4
1 комментарий
Развернуть ветку
Алексей Куликов

Что мешает эплу применить подобные технологии в других странах?

Ответить
0
4 комментария
Развернуть ветку
Morgan

Вроде как они проверяют только на наличие известного ЦП, то есть фоток которые раньше уже засветились и есть в соответствующей базе. Искать новое ЦП в личных фото пользователь пока вроде бы не планируется.

Ответить
1
Развернуть ветку
Андрей Лебедев

С базой данных сравнивать же будут

Ответить
0
Развернуть ветку
Александр Елисеев

Родной Эппол тебя в педофилы зачислит, если до этого тебя полицейские поймали и осудили, или ты скачал чужие фотки покрасневшей попы у чела, которого тоже осудили.

Впрочем, это не отменяет того факта, насколько это опасный прецедент.

Ответить
–7
Развернуть ветку
Максим Шпилёв

Компания пояснила, что хочет защитить детей от «хищников, которые используют средства коммуникации для привлечения и эксплуатации»
От ХИЩНИКОВ! Вам ещё не страшно за детей?

Ответить
25
Развернуть ветку
Любой якорь

Слишком дословный перевод, в США педофилов действительно называют хищниками (predators).

Ответить
4
Развернуть ветку
Андрей Лебедев

Predators это не только педофилы, это вообще любые озабоченные кто сталкерит или охотится(!) за людьми, которые его сексуально привлекают

Ответить
2
Развернуть ветку
Любой якорь

Старая-добрая защита детей — каждый раз отрабатывает на «ура»

Ответить
25
Развернуть ветку
Егор Владимирович

Если кому-то спасет жизнь, то ты может и потерпишь, что твои нюдсы посмотрят. 

Ответить
–7
Развернуть ветку
Любой якорь

Ты хочешь, ты и терпи, других не надо в это втягивать. Кстати, можешь начать уже сейчас и выложить дамп своей галереи на файлообменник, чтобы эксперты TJ её изучили на предмет крамолы. Это может спасти кому-то жизнь!

Ответить
12
6 комментариев
Развернуть ветку
MedievalRain

Когда камеру в каждую комнату тебе поставят также будешь говорить?

Ответить
2
2 комментария
Развернуть ветку
Любой якорь

Братан, ну помимо педофилов есть гораздо более многочисленные и опасные преступники — убийцы, маньяки, насильники. Давай постоянно короче телефон будет слушать и если вдруг крики убивают какие, то копов вызовет? Ну ты ж никак не пострадаешь, ну.

Ответить
0
1 комментарий
Развернуть ветку
Любой якорь

Комментарий удален по просьбе пользователя

Ответить
6
Развернуть ветку
Romario

Не "мат", а "хейтспич" и "токсичность".

Ответить
9
Развернуть ветку
Brown Zweig

Доброй ночи, Дамир!

Ответить
6
Развернуть ветку
Иван Прохоров

И Сергей Звезда!

Ответить
3
Развернуть ветку
Mihail

Скоро покупая андройд:
- зачем тебе андройд, ты педофил что ли?
- эпл внесла настоящий вклад для борьбы с преступностью, а что сделал андройд/гугл? покрывает преступников и педофилов

Ответить
6
Развернуть ветку
Властный крюк

Комментарий удален по просьбе пользователя

Ответить
5
Развернуть ветку
Любой якорь

Комментарий удален по просьбе пользователя

Ответить
0
Развернуть ветку
Главный корабль

Комментарий удален по просьбе пользователя

Ответить
4
Развернуть ветку
Алексей Иванов

Как бы, к сожалению и на андройде непонятная ситуация. Любой софт типа сбербанк онлайн может сканировать твои фотки с мемами и вон, как выше, один из них окажется экстремистским материалом. А работают ли с гебней всякие сяоми и хуавеи с их miui и прочим калом -  вопрос остается открытым, например.

Ответить
0
Развернуть ветку
Главный корабль

Комментарий удален по просьбе пользователя

Ответить
4
Развернуть ветку
Властный крюк

Комментарий удален по просьбе пользователя

Ответить
0
13 комментариев
Развернуть ветку
Алексей Куликов

Любой софт типа сбербанк онлайн
Необязательно это говно держать в телефоне. Сбербанк онлайн отказывается работать без полного доступа к системе, поэтому идёт нахер с моего телефона, так же и с остальным.

Ответить
0
Развернуть ветку
Madegghead

да как бы параноики информбезопасности давно ушли от продукции Apple. Она вся дырявая, хоть комп, хоть мобилка.

Ответить
–1
Развернуть ветку
Максим Чернышенко

Пруфы? На андроиде типа дыр нет?

Ответить
0
2 комментария
Развернуть ветку
Vlad F

А когда эппл начнет раздавать детям бесплатные айфоны?

Ответить
2
Развернуть ветку
Любой якорь

Комментарий удален по просьбе пользователя

Ответить
3
Развернуть ветку
Павел Солнцев

Нейросеть: выглядит как хуй - блюрим

Ответить
2
Развернуть ветку
Любой якорь

Корпы теперь буквально в трусы лезут, охуенно.

Ответить
1
Развернуть ветку
Мясной пистолет

Комментарий удален по просьбе пользователя

Ответить
1
Развернуть ветку
Vasya Pupkin

изучать каждый случай, чтобы подтвердить соответствие, отключит аккаунт пользователя и сообщит о нём в NCMEC. Пользователи смогут оспорить жалобу, если считают её ошибочной.

То есть сначала тебя сдадут гестапо и отключат аккаунт, а потом ты сможешь оспорить лол. А те дни/недели пока ты оспаривать будешь, как аккаунтом пользоваться?

Ответить
1
Развернуть ветку
Евгений Смирнов

Зачем тебе аккаунт в Гуантанамо? Побег координировать будешь, мерзкий террорист? )

Ответить
0
Развернуть ветку
Andrew Muralov

Также планируется платная подписка 59$/мес для отключения этой опции. 

Ответить
1
Развернуть ветку
Mihail

Еще интересно, откуда они брали весь этот "контент" для обучения нейросети, у пользователей айфонов?

Ответить
1
Развернуть ветку
Любой якорь

Господа, просветите невежду: а можно с яблоустройствами работать без Айклауда? 

Ответить
1
Развернуть ветку
Евгений Смирнов

Можно, а вот без яблочной учётки не выйдет.

Ответить
0
2 комментария
Развернуть ветку
Существенный каякер

Комментарий удален по просьбе пользователя

Ответить
–4
Развернуть ветку
Любой якорь

Блин только год назад переехал с андроида на эпол, а тут обратно придется, если конечно гугл тож такие плюхи не внедрит

Ответить
0
Развернуть ветку
Главный корабль

Комментарий удален по просьбе пользователя

Ответить
0
1 комментарий
Развернуть ветку
Gregory

внедрит конечно же. Не думаю, что они исключительно по своей воле такое делают.

Ответить
0
Развернуть ветку
Любой якорь

Ладно там дети, так и не увидел как это будет касаться взрослых и их порнухи (не детской) да и не только прона, всякие разного рода интимные фоточки и видосики? Тоже замылит и сдаст FBI?))

Ответить
0
Развернуть ветку
Alex

Какой удобный мотив для слежки за пользователями.

Ответить
0
Развернуть ветку
Алексей Куликов

Эпл что-то там в рекламе про конфиденциальность вещала, или это другое? Эпл считает каждого обладателя айфона потенциально педофилом?

Ответить
0
Развернуть ветку
Существенный каякер

Комментарий удален по просьбе пользователя

Ответить
0
1 комментарий
Развернуть ветку
Читать все 138 комментариев
null