Рубрика развивается при поддержке
Advertisement
Технологии
DTF

«Мы не ищем детскую порнографию на iPhone»: вице-президент Apple объяснил принцип работы функций для защиты детей Статьи редакции

И заверил, что технологии не будут использоваться ни для каких сторонних целей.

Старший вице-президент Apple по разработке ПО Крейг Федериги дал интервью The Wall Street Journal и прояснил ситуацию с анонсированными ранее защитными функциями iPhone, которые раскритиковали пользователи и СМИ.

По его словам, к путанице привело одновременное объявление о двух разных инструментах: функции определения контента с сексуальным насилием над детьми в облачном хранилище iCloud и опции, отвечающей за оповещение родителей о получении и отправке сексуальных фотографий. Руководитель подробно объяснил принцип работы обеих технологий.

Функция определения контента с сексуальным насилием над детьми в iCloud

  • Федериги подчеркнул, что технология сканирования применяется только к фотографиям, которые загружаются в iCloud. Если владелец iPhone отключает выгрузку снимков в облачное хранилище, защитная функция тоже автоматически выключается.
  • За сканирование отвечает многоэтапный алгоритм, который проводит частичный анализ снимков на iPhone при выгрузке фотографий в iCloud. Вторая часть проверки происходит уже в iCloud силами облачного хранилища.
  • Apple получит предупреждение только в случае, если в облачном хранилище пользователя появится определённое количество снимков с изображением сексуального насилия над детьми, по словам Федериги — около 30. При этом компания узнает только об этих потенциально незаконных фотографиях — все другие остаются для неё недоступными.

Это должно быть предельно ясно — анализ не затрагивает фотографии вашего ребёнка в ванне или, раз уж на то пошло, снимки с изображением порнографии любого другого рода. Алгоритм в буквальном смысле определяет только точнейшие совпадения с конкретными изображениями с детской порнографией.

Крейг Федериги
вице-президент Apple
  • Учётная запись, на которой алгоритм фиксирует более 30 вероятных нарушений, получает пометку и после её проверяют специалисты Apple на предмет того, действительно ли снимки содержат детскую порнографию. Если это так, Apple сообщает об этом в Национальный центр поиска пропавших и эксплуатируемых детей.
  • Федериги категорически отверг версию журналистки о том, что функция сканирования — это лазейка для властей, предоставляющая им доступ к данным пользователей. По его словам, компания разработала систему с несколькими уровнями проверки, поэтому её нельзя использовать ни для чего, кроме определения детской порнографии.

Опция оповещения родителей о получении и отправке сексуальных фотографий в iMessage

  • Если родитель включит эту функцию на iPhone своего ребёнка, то получаемые им снимки потенциально порнографического характера будут размыты. При этом ребёнок получит предупреждение о том, что содержимое может быть небезопасным, но сможет проигнорировать его и посмотреть снимок.
  • Родители смогут включить функцию оповещения о том, что ребёнок решил посмотреть потенциально опасный контент в случае, если ему меньше 12 лет. По словам Федериги, если эта опция будет включена, то iPhone уведомит ребёнка о том, что родитель получит оповещение о просмотре.
  • Федериги подчеркнул, что технологии, использующиеся для проверки снимков в iMessage и для поиска контента с сексуальным насилием над детьми, кардинально отличаются друг от друга. Определение содержимого снимков в iMessage происходит при помощи алгоритмов машинного обучения на iPhone. Поиск контента в iCloud же выполняется нейросетями путём сопоставления хешей изображений.

Apple объявила об усилении защиты детей 6 августа. Компания внедрила функции в трёх областях — «Сообщениях», фотографиях в iCloud и в Siri. С осени 2021 года системы начнут размывать откровенные снимки для детей до 12 лет в iMessage, проверять фотографии в облаке iCloud на детское порно и давать советы по безопасности детям и родителям в Siri.

После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и рядовые пользователи. Они обвинили Apple в нарушении приватности и задались вопросами, как ту же функцию могут использовать авторитарные правительства в будущем.

{ "author_name": "DTF", "author_type": "editor", "tags": ["\u043d\u043e\u0432\u043e\u0441\u0442\u0438","apple"], "comments": 105, "likes": 22, "favorites": 7, "is_advertisement": false, "subsite_label": "tech", "id": 424062, "is_wide": true, "is_ugc": false, "date": "Sat, 14 Aug 2021 10:24:57 +0300", "is_special": false }
0
105 комментариев
Популярные
По порядку
Написать комментарий...
Молодой шмель

Ну да, ну да

42

Если родитель включит эту функцию на iPhone своего ребёнка, то получаемые им снимки потенциально порнографического характера будут размыты.

И как теперь кидать друзьям порно в 12 лет? Хотя с другой стороны: зачем это делать в мессенджере эплов, если есть телега ред.

9
Престижный бинокль

Тут скорее это надо чтобы ребёнку кто свой хуй не скинул.

4

пока есть телега , рано или поздно гугл и епл телегу  нагнут , это не рашка немощная со своими блокировками . 

1

И да, идеи черного зеркала, каждый день приближаются к реализации. 4х02. Arkangel.

1

ебать 
а можно просто принять какой то закон который просто отрубит эти ручонки и не даст им вырасти вновь 
30 фоток
через пять лет втихую перепишут эти правила + люди подзабудут привыкнут 
знаем как это работает (благо сверхдержава постоянно демонстрирует как работают эти технологии) 
мы чуть-чуть а потом не чуть-чуть 
а потом ты в тюрьме на десятку 

нахуй это надо

33

надо какую то конвенцию для всего этого дерьма 
где всем этим конторам обрисуют куда они могут а куда не могут лезть 
ахуевшие  

6

Ну, более властный надзиратель-то точно с ума не сойдет, верно? Тысячи лет проходят, а люди все также хотят простых решений.. ред.

3

Насколько я знаю в ес есть закон о персональных данных и потомном.

0

Пару обновлений с лонг Гридами изменений багов и стандартных соглашений)))

0
Живой цвет

Даже если он честно всё  наговорил, чтобы успокоить пользователей, всё равно применение системы будет расширено со временем, особенно если будет прецедент какой-нибудь, например новый стрелок в школе коллекционировал мемы про чёрных - и вот пожалуйста, нейроговно начинает мониторить вашу мемотеку. И так далее до полного контроля каждого пука.

26
10
Актуальный клуб

категорически отверг

и другие убедительные аргументы старого пиздабола

21

Федериги категорически отверг версию журналистки о том, что функция сканирования — это лазейка для властей, предоставляющая им доступ к данным пользователей

И ни в какой момент в будущем не будет для этого использована. 
"Честное-пречестное" - добааил президент Apple

9

пруф где Apple или лично Крейг Федериги напиздел за все эти гобы. Впрочем, таких нет. Так что пиздабол тут только ты

–2
Актуальный клуб

пиздят на каждой презентации

4

лол, открой их суд с Epic, там пиздежь каждое слово

0

Твёрдо и четко 

1

Мамой поклялся

0

Такие бредовые отмазки

19

«Учётная запись, на которой алгоритм фиксирует более 30 вероятных нарушений, получает пометку и после её проверяют специалисты Apple на предмет того, действительно ли снимки содержат детскую порнографию»

18
Самарский торшер

Представляю объявление о вакансии: требуется специалист для просмотра детской порнографии, с опытом.

2

«компания разработала систему с несколькими уровнями проверки, поэтому её нельзя использовать ни для чего, кроме определения детской порнографии»

Что мешает настроить систему на поиск изображений с мемами про чёрных? ред.

17
Провинциальный жар

Эппл выводит на рынок потсковик детского порно

16
Приятный Женя

Комментарий удален по просьбе пользователя

14

И крейг показал, как после 31 фото за ним приехало фбр

0

Так-то годное цп всегда было тяжело найти. Последнее место где что-то интересное можно найти это как раз телефоны людей. 

7

Судя по новостям из США, немало тех, кто хранит в телефоне, так что смысл вроде есть)

0

Нужно в католических церквях получше поискать. 

21

Так я же и говорю что это хороший вариант для поиска цп. 

0

кто ищет, тот всегда найдет

1

Чтобы сопоставить хэши нейросеть не нужна. Опять айтишник выебал журналиста?

6
Живой цвет

Нужна, если хочется освоить больше бюджетов.

7
Зимний велосипед

Тут небольшая путаница, речь конечно же про эмбеддинги, а не хэши. И то и другое - это функция от содержимого файла, дающая на выходе какое-то представление. Но в случае эмбеддинга, полученные от схожих картинок результаты будут близки в векторном пространстве, образуя кластера. Делается это как раз нейросетью, чтобы все повороты, сжатия, замыливания и прочие аугментации оригинального изображения имели схожие эмбеддинги. Apple же в случае нахождения чего-то в окрестности будет получать отбивку. Надо ли говорить, что на них может быть похоже все что угодно (смотри adversarial attack). ред.

3
Пищевой американец

Если правильно понимаю - сверяют хэши не самих файлов изображений, а запечатлённых на них образов (начиная с, допустим, векторного рисунка линий, и заканчивая распознанными деталями вроде цвета волос да окружающей меблировки), дабы не спотыкаться об ресайзы с обрезками - и уже тут таки нейроалгоритмы могут быть полезны.

2

Нейронка "сжимает" пикчу, на выходе получаем вектор. Этот вектор называем хешем и сверяем их уже.

Не знаю, как это работает, но если ты знаком с Variational Autoencoder то можно представить что используется Encoder который делает из пикчи вектор, его используем как хэш. Это мне только первое что в голову пришло.

1
Престижный бинокль

Поиск контента в iCloud же выполняется нейросетями путём сопоставления хешей изображений

Странная история про хэши. То есть они взяли кучу детской порнухи и теперь будут с ней сопоставлять?

6

Именно так. У них есть база детской порнографии от какой-то там организации, которая с ней борется. С ней и сверяют.

4
Престижный бинокль

Есть ли там детская мода??

6

Только чтибы сопоставлять хеши нейросеить не нужна совсем ред.

4
Престижный бинокль

Ну вот я и говорю, что странная история.

4

Как я понял, там нейросеть хеши выдаёт. Это нужно, чтоб изменения картинки не меняли хеш.

1

На самом деле никакой путаницы не было и все всё прекрасно поняли. Именно в этом и проблема для Эпл. Ща будут придумывать гору отмазок и толкований, чтобы хоть немного сгладить этот пиздец. ред.

6

А обучали эти нейросети интересно как? 

2
Актуальный клуб

на личных архивах

7

На датасете, который был представлен Национальным центром поиска пропавших и эксплуатируемых детей. По официальной версии. Но может быть, телефоны уже давно неофициально сканируют и потенциальные любители голых детей уже на карандаше, так сказать, до официального релиза. ред.

4
Будущий самолет

Он ЗАЯВИЛ, ну всё бля раз сказал надо верить!

4

Обосрались, теперь отмазываются.

4
Советский нос

мы не ищем детскую порнографию на iPhone

Мы ищем её в iPhone😏😏😏

4
Перспективный нос

нормальный человек в принципе даже не заинтересуется подобным. надо бы проверить топ менеджеров аппла, особенно тем кто проталкивает

0

Ох уж эти любители проталкивать.

5

Так в США законы на эту тему есть

1

Если речь только про iCloud, то по-моему остальные тоже так или иначе проверяют содержимое. Под остальными имею в виду Google Drive, Onedrive, и другие облачные сервисы.

0

проснись и пой

4
Живой цвет

Есть ощущение что onedrive тут самый демократичный, не помню скандалов про него

1

самый демократичный, потому что он об этом просто не заявляет?))

0

Насчёт гугл драйв хз, но Яндекс диск точно чекает загружаемые файлы, и если обнаружил запрещёнку, то блокирует и, возможно, сообщает в госорганы

0

Дак так и есть. Тут уже писали, что эпл внедрило функцию одной из последних

0

Тут писали, конечно, охуенный источник, но можно пруф?

0

Комментарий удален по просьбе пользователя

1

Я правильно понимаю, что если кто-то снимет 30 фоток секса с 18-19 летней девкой (они могут выглядеть очень молодо), то все 30 фоток улетят "специалистам Apple для анализа"?

1
Пищевой американец

Yesn't: хэши с нейрообразов - сформируются и уйдут в облако (если оно, конечно, включено), но т.к. фотки являются "оригинальным контентом" и не содержатся в околоправительственной базе "противоправной порнографии" (с которой сверка проводится "точь-в-точь") - фотки если и уйдут на анализ человеками, то только после того, как разойдутся по интернету по инициативе пользователя и/или после его ареста без помощи Apple и "шмона" памяти его телефона следствием. ред.

0
Самарский торшер
0

А все довольно закономерно. Сначала они точечно следят за реальными преступниками (https://tjournal.ru/tech/65911-vlasti-ssha-otsledili-rossiyskogo-korolya-spama-petra-levashova-blagodarya-icloud), а тех кто бьет в такие моменты тревогу называют преступниками и параноиками, не делайте ничего противозаконного и следить не будут! А потом хуяк, и начинают уже массовую слежку.
Какое-то подобие уверенности в защите данных можно иметь только на софте с открытым исходным кодом, который проходил парочку независимых аудитов. 

1

И за все эти годы кто-то НЕВИННО пострадал от этого? Наказали только мразей, это же не Роскомнадзор

0

 если у родителя будут фотографии своего ребенка в неглиже.  Это считается педофилией ? 

0
Пищевой американец

Да - см. дело Юрия Дмитриева.

1
Самарский торшер

Ну у него отягчающее обстоятельство: оскорбил память ветеранов чека.

3

После заблокированного аккаунта и банковского счёта, визита полиции и пары месяцев разбирательств, конечно, выяснят, что это не педофилия. Но осадок останется.

0

конечно, выяснят, что это не педофилия. Но осадок останется

Скорее выясняет что это педофилия и посадят. По УК голые фотки это цп, секс там не нужен. ред.

0

Нет, на редите читал что колекция веривицированных опасных фото есть у государтсва и эпл будет сравнивать только с ними а не распозновать наготу на фотографии например

0

Наготу будут тоже распознавать, они будут родителям стучать на подростков.

0

Если видны половые органы, даже частично, то по закону это ЦП ред.

0

Тоесть отец или мать не имеют право видеть голым своего ребенка? 

0

Забавно, что когда гугл внедрил подобную фичу для поиска ЦП в собственное облако, такого скандала не было ред.

0

Облако это облако. Ты можешь им пользоваться, а можешь не пользоваться. Услуга просто. А тут ты покупаешь устройство, отдаешь за него полноценную котлету денег - и оно сканирует все твои фотки и видео. Которые ты никуда не отправляешь.
Отсюда и кипишь такой

1

Так здесь также сканируются фотки в облаке iCloud

0

Прикольная скамейка

0

Вообще, было бы заебись, если бы сами high executives попали под подозрение своих же алгоритмов. Вчера ты пиздел про "только преступников", а сегодня у тебя репутация педофила. А всё просто потому, что кто-то прислал тебе пачку детского порно.

0

ууу сколько шума из за этого

0

"а со всем остальным справится свмсунг"

0

 как ту же функцию могут использовать авторитарные правительства в будущем.

С удовольствием!

0
Читать все 105 комментариев
null