{"id":1064,"title":"\u041f\u0440\u043e\u0439\u0434\u0438\u0442\u0435 \u044d\u0442\u043e\u0442 \u0442\u0435\u0441\u0442, \u043f\u043e\u043a\u0430 \u043a\u0440\u0438\u043f\u0442\u043e\u0433\u0440\u0430\u0444\u0438\u044e \u0438\u0437 \u0435\u0434\u044b \u043d\u0435 \u0437\u0430\u043f\u0440\u0435\u0442\u0438\u043b\u0438","url":"\/redirect?component=advertising&id=1064&url=https:\/\/tjournal.ru\/special\/kaleidofood&placeBit=1&hash=f30606208ead4bb67ee3624f20be3cd7a9b9c0ae8b2bd8a40218541848752d25","isPaidAndBannersEnabled":false}

Скользкая дорожка приватности: почему Apple критикуют из-за решения проверять откровенные фото на устройствах Статьи редакции

Facebook, Google и другие IT-компании уже давно используют подобную технологию — и до сих пор многие о ней даже не знали.

5 августа Financial Times сообщило со ссылкой на источники, что Apple начнёт проверять фото на устройствах пользователей на наличие детской порнографии. Спустя несколько часов компания сама объявила о нововведениях на отдельной странице официального сайта.

Apple представила улучшения функций защиты детей в трёх областях — «Сообщениях», фотографиях в iCloud и Siri. Они заработают с выходом новых версий систем для iPhone, iPad, MacBook и Watch.

  • Компания начнёт автоматически размывать откровенные фотографии для детских аккаунтов младше 13 лет в «Сообщениях». Пользователей начнут предупреждать о безопасности перед попыткой просмотреть контент, а родителям сообщат, если дети всё же открыли или отправили снимок. Проверку обещают проводить локально на устройстве;
  • Apple также начнёт проверять фотографии в iCloud на предмет жестокого обращения с детьми: компания использует готовую базу снимков от государственного центра пропавших и эксплуатируемых детей США (NCMEC). Сравнение будут проводить автоматически по хеш-суммам, компания не получит доступ к самому снимку;
  • Siri и «Поиск» начнут выдавать подсказки о безопасности и справочную информацию о детском насилии как для детей, так и для родителей.

Редактор TJ разобрался, из-за чего паникуют в соцсетях, к чему могут привести новые функции и почему Apple не могла избежать их внедрения.

В соцсетях и СМИ обвинили Apple в нарушении приватности. Компания это отрицает

После публикации Apple в твиттере начались масштабные обсуждения новых функций. Пользователи начали критиковать компанию, которая совсем недавно противостояла ФБР, отказываясь разблокировать айфон стрелка в Сан-Бернардино, а теперь сама передаёт властям данные.

@zackwhittaker A lot of people not getting that ML scanning for pornographic images means that a lot of images of young adults who are 18+ will have to be checked by a human, or multiple humans.
Многие не понимают, что использование машинного обучения для поиска порно означает, что куча фото совершеннолетней молодёжи будет проверяться неким человеком или даже группой людей

Некоторые стали беспокоиться из-за того, как именно система отличит безобидные фотографии от детской порнографии. В соцсетях задумались, к чему может привести внедрение подобной функции, ведь всем «нечего скрывать» лишь до определённой степени.

Like many parents, I have pictures of my kids without clothes on (try getting a 4 year old to wear clothes). How are they going to differentiate this from legitimate abuse? Are we to trust AI to understand the difference? Seems fraught. https://twitter.com/reuters/status/1423322951261343752
Как и у многих других родителей, у меня есть фото моих детей без одежды (попробуйте заставить четырёхлетнего ребёнка одеться). Как они отличат это от детского насилия? Мы доверимся ИИ в понимании разницы? Звучит паршиво
"I got nothing to hide" okay install cameras in your house documenting everything you do. Wont matter since you have nothing to hide right? At what point do you push back to keep your privacy? This system currently scans for csam but what stops it from flagging political content? https://twitter.com/Snowden/status/1423387232963022848
Если нечего скрывать, тогда установите камеры у себя дома, которые будут снимать всё, что вы делаете. Неважно, ведь всё ещё нечего скрывать? На какой точке вы развернётесь, чтобы вернуть свою приватность? Сейчас система сканирует детскую порнографию, но что мешает ей помечать политический контент?
Political consequences: Every time a tech company to concedes some privacy for a political,social goal, but limits its invasiveness by an incredibly clever counter-intuitive cryptographic route, about 5 minutes later politicians and activists will complain
«Каждый раз, когда технологическая компания решает пожертвовать приватностью для политической или социальной цели, но сделать это с помощью невероятно умной неинтуитивной криптографии, примерно через пять минут приходят политики и активисты, и жалуются, что сделано недостаточно»

Одним из главных критиков Apple оказался профессор по криптографии из университета Джонса Хопкинса Мэттью Грин. В разговоре с The New York Times он назвал новые возможности «опасным прецедентом, создающим технологии слежки, которыми могут воспользоваться правительства».

По его мнению, подобная система может помечать определённый контент на смартфонах, но оставляет Apple возможность в случае чего утверждать, что остальное зашифровано. При этом раньше позиция компании заключалась в том, что не может предоставить властям часть данных, потому что они зашифрованы целиком, и ни у кого кроме пользователей нет к ним доступа.

Я понимаю, что технологию будут использовать для сканирования облачных фотографий на стороне клиента. В конце концов это может стать ключевым ингредиентом для появления слежки в зашифрованных мессенджерах.

Мэттью Грин
из твиттера профессор по криптографии университета Джонса Хопкинса

Похожие сомнения высказал Фонд электронных рубежей США (EFF) — некоммерческая организация, выступающая за защиту прав человека в цифровую эпоху. EFF выпустила обширный пост с критикой Apple, где отметила, что это не «скользкая дорожка», а полностью готовая система, ждущая внешнего давления. В организации отметили, что любой мессенджер, где читать или анализировать контент может кто угодно кроме отправителя и получателя нельзя называть безопасной.

Невозможно построить систему распознавания на стороне клиента, которая будет использоваться только для сканирования откровенных снимков, полученных или отправленных детьми. Одним из последствий будет нарушение ключевых обещаний о шифровании даже с благими целями и открытие двери для более широких злоупотреблений.

из заявления Фонда электронных рубежей

В Apple отрицают проблемы с безопасностью из-за внедрения новых функций. «Если вы храните коллекцию детского порно, то да, у вас проблемы. Для всех остальных ничего не изменится», — пояснил глава по приватности Apple Эрик Нойеншвандер. Он также отметил, что Apple отклонит любые запросы правительств о разработке других подобных систем, а новые функции «защищены от злоупотреблений».

Многие считают функцию безопасной. Документация это подтверждает

Далеко не все раскритиковали компанию в борьбе с детской порнографией. Специалисты по криптографии и журналисты изучили документацию и заявили, что всё безопасно.

Как пояснил профессор университета Бар-Илан Бенни Пинкас, Apple на самом деле не сканирует фото прямо на устройствах. На стороне пользователя система только формирует специальный ваучер безопасности, который дважды шифруется случайным ключом — всё остальное происходит на сервере.

The PSI system ensures that only if the number of photos suspected as being CSAM is above some threshold, the Apple server can review the safety voucher and check if the images indeed contain CSAM content.
Система гарантирует, что только после перехода определённого лимита подозрительных фото сервер Apple может изучить ваучер безопасности и проверить изображения на предмет детского порно

Пинкас также пояснил, что система может распознавать лишь заранее известные откровенные детские снимки. Это не самообучающайся алгоритм и не система распознавания, а инструмент для сравнения «слепка» (хэша) изображения пользователя с базой фотографий детского насилия, предоставленных государственными организациями.

При этом сама база данных не будет храниться в открытом виде: она тоже будет доступна в виде хэша, то есть пользователи и Apple не смогут увидеть изображения. После определённого количества найденных совпадений подозрительные фотографии передадут сотруднику Apple, который вручную проверит, что они соответствуют образцу.

Если всё подтвердится, то аккаунт заблокируют, а данные передадут властям. По мнению Apple, такой подход гарантирует, что данные пользователей, не хранящих детской порнографии, не увидят ни сотрудники компании, ни власти.

В поддержку Apple также высказался Хани Фарид — профессор по компьютерным наукам в Университете Беркли, который помог разработать технологию хешей, которую применила компания. По его мнению, любой возможный риск перекрывается пользой, которую принесёт защита детей.

Если будут приняты разумные меры безопасности, то я думаю преимущества перевесят недостатки.

Хани Фарид

Журналист Джо Россиньол также уточнил детали работы системы. Оказалось, что проверка изображений не заработает, если пользователь отключил выгрузку фото в iCloud. А уведомления об откровенных снимках родителям нужно включать вручную, причём они доступны только для аккаунтов детей до 13 лет. Родители не смогут включить уведомления на профили детей от 13 до 17 лет: те смогут смотреть любые откровенные изображения в «Сообщениях», если захотят.

I've clarified some child safety details with Apple:

- If a user has iCloud Photos disabled, Apple says it will not be able to detect known CSAM images
- Parental notifications for Communication Safety in iMessage are optional for children age <13, not available for ages 13-17

Некоторые техноэнтузиасты также высказались за позицию Apple. По их мнению, компания всё сделала правильно, а критики пытаются увести разговор «не в ту сторону».

Before the tech-libertarians blow a gasket at the idea of Apple scanning images on your phone, remember that 1: they're scanning photos on *their* servers (iCloud) and 2: they're only comparing hashes. Nobody is looking at your photos.
Прежде чем техно-либертарианцы начнут распространять идею, что Apple сканирует изображения на вашем телефоне, помните: 1 — они сканируют изображения на *своих* серверах (iCloud) и 2 — они сравнивают только хэши. Никто не смотрит ваши фото

То же самое делает любой фотообменник, который люди когда-либо использовали, отметил энтузиаст Дерек Повазек. Но этого никто не замечает, пока не начнёт обмениваться детской порнографией.

По мнению Повазека, нововведения Apple также облегчают работу модераторам, у многих из которых из-за постоянного просмотра шок-контента развивается ПТСР. Подобные системы позволяют не видеть снимки детского насилия и не травмировать себе психику.

Почему Apple не могла избежать внедрения новых функций

На самом деле крупные технологические компании и так многие годы используют подобные системы для борьбы с детской порнографией. Google начал использовать распознавание изображений в облаке в 2008 году, Facebook — в 2011 году, а Twitter — в 2013-м. Все они тоже анализируют снимки по хешам и сравнивают с базой, которую предоставляет центр NCMEC.

Нововведения Apple в первую очередь нацелены на США, и, возможно, даже не будут работать в России и многих других странах. По крайней мере, информации об этом пока нет. В Штатах технологические компании по закону обязаны распознавать контент с детским насилием и сообщать о нём, но Apple исторически делала это меньше остальных.

За 2020 год Facebook отчитался о 20,3 миллионах случаев распознавания такого контента, а Apple — только о 265. Такой огромный разрыв возник, потому что компания Тима Кука не внедряла распознавание подобных материалов, но это всегда было неизбежностью: штаб-квартира Apple находится в США, и компания не может не исполнять местные законы.

Пока нововведения для защиты детей сами по себе и правда кажутся безопасными: предупреждение родителей будет работать только опционально для детей младше 13 лет, а проверка на детскую порнографию — это лишь сравнение с конкретной базой снимков.

Обычным пользователям, у которых есть фотографии детей или маленьких братьев и сестёр, пока не о чем беспокоиться. Хотя система может ошибиться в отдельных случаях (Apple говорит об одном шансе на триллион в год), для заморозки аккаунта потребуется целая коллекция обнаруженных совпадений.

Вероятно, новые функции также действительно помогут в борьбе с распространением детского порно: iCloud, очевидно, используют и для этого, как и другие файлообменники, но до сих пор Apple ничего не делала с проблемой.

С точки зрения регуляции — это изящное технологическое решение, но оно вызывает вопросы о политике Apple в будущем. До сих пор компания твёрдо занимала позицию о невозможности работы с зашифрованным контентом. Теперь данные формально остаются зашифрованы, но в отдельных случаях (если снимок совпал с базой NCMEC) — уже нет.

Легко представить, как далеко это может зайти в российских реалиях с базой экстремистского контента. Ведь по такой же схеме можно сравнивать и запрещённые мемы из базы Минюста с фотографиями пользователей. С другой стороны, если наши правоохранительные органы займутся чем-то подобным, то уже будет неважно, о какой компании речь.

Так или иначе, теперь в знаменитый слоган Apple «всё, что происходит на вашем iPhone, остаётся на вашем iPhone», стоит добавить примечание — только если у вас отключён iCloud.

Билборд Apple на CES 2019
0
290 комментариев
Популярные
По порядку
Написать комментарий...
Сергей Звезда

Мы действительно немного перегнули, стремясь отразить в заголовке сразу обе позиции. В итоге скорректировали заг, оставив по факту сам вопрос и раскрыв чуть подробнее его суть. Теперь разночтений и двусмысленности должно не быть

Ответить
Развернуть ветку
Всякий теркин30см

Комментарий удален по просьбе пользователя

Ответить
74
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
10
Развернуть ветку
Всякий теркин30см

Комментарий удален по просьбе пользователя

Ответить
4
9 комментариев
Развернуть ветку
Alex Comrade

А ещё там написано, например, мнение профессора компьютерных наук, который рассуждает о том, что «любой возможный риск перекрывается пользой, которую принесёт защита детей».

Ответить
2
3 комментария
Развернуть ветку
Zzzzzzz

Кажется эппол могли отмазаться, сделав сравнение хешей именно в icloud, а не на устройствах

Ответить
2
1 комментарий
Развернуть ветку
Key X51

ну и случайно оказалась крайней, могли бы уволить своих PR, разве так делается?
Надо было сказать, что в свете соблюдения современных стандартов в индустрии, и исполнения требований закона, ну и дальше то что они отморозили.

Кстати, во Франции, вроде как криптография сильнее 40-бит до сих пор запрещена, кроме банковского дела. И ничего, всё примерно также, как в США или через пролив.
Даже за открытый WiFi штрафуют, но не помогает это.

Ответить
0
Развернуть ветку
Виталий Орлов

Вы точно эту статью прочитали? 

Ответить
0
Развернуть ветку
Дамир Камалетдинов

Видимо мы читали разные материалы

Ответить
–1
Развернуть ветку
Всякий теркин30см

Комментарий удален по просьбе пользователя

Ответить
2
5 комментариев
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
55
Развернуть ветку
Иван Прохоров

@Дамир Камалетдинов ты либо журналист, либо пропагандист. Решай

Ответить
36
Развернуть ветку
Иван Прохоров

А ладно. Дамир имел в виду тупой левый закон, который обязывает их это делать, а не моральную необходимость. Вопрос частично снимается

В Штатах технологические компании по закону обязаны распознавать контент с детским насилием и сообщать о нём, но Apple исторически делала это меньше остальных.

Ответить
11
8 комментариев
Развернуть ветку
Дамир Камалетдинов

Заднее чтение

Ответить
–5
Развернуть ветку
Иван Прохоров

Мы читаем только заголовки. Ты должен был это учесть! Почему ты не уважаешь читателя?

Ответить
14
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
2
42 комментария
Развернуть ветку
Сергей Звезда

Мы действительно немного перегнули, стремясь отразить в заголовке сразу обе позиции. В итоге скорректировали заг, оставив по факту сам вопрос и раскрыв чуть подробнее его суть. Теперь разночтений и двусмысленности должно не быть

Ответить
3
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
49
Развернуть ветку
Дамир Камалетдинов

У всего бигтеха то же самое работает уже 10+ лет и что-то никаких проблем не было, а тут внезапно пометит совсем левые фотки, конечно

Ответить
–23
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
45
16 комментариев
Развернуть ветку
Самарский франт

Комментарий удален по просьбе пользователя

Ответить
7
3 комментария
Развернуть ветку
Vasya Pupkin

Ты думаешь, что если проблемы были бы, то компания выпустила бы пресс релиз? Очевидно, что если будут ошибки и какой-то хуй из эпол посмотрит мои фото они это замнут и это не выйдет никуда за пределы компании 

Ответить
5
6 комментариев
Развернуть ветку
A patient patient

никаких проблем не было
На любой хакерской конфе тебе быстро объяснят почему такие доводы не работают. Пожалуй хакеры лучше всех понимают фразу: "всё что будет вами сказано (сфотографировано) может использоваться против вас в суде". Причём задним сроком тоже. Это будет уже твоя забота доказывать, что ты не верблюд.

Ответить
1
Развернуть ветку
Gregory

Только в iCloud. Тут же чеканиться будут локальные копии

Ответить
0
1 комментарий
Развернуть ветку
Pyo Qf
Ответить
28
Развернуть ветку
Грязный диод

Комментарий удален по просьбе пользователя

Ответить
26
Развернуть ветку
Всякий теркин30см

Комментарий удален по просьбе пользователя

Ответить
3
Развернуть ветку
Дамир Камалетдинов

Ты видишь то, что хочешь видеть

Ответить
0
Развернуть ветку
Алексей Куликов

Обычным пользователям, у которых есть фотографии детей или маленьких братьев и сестёр, пока не о чем беспокоиться.
Ох, вот оно что, пока не о чем беспокоится... Пока... Это только на раннем этапе такое, а потом голосуешь не за тех людей, смотришь не те вещи, одеваешься не в те цвета, не ходишь в определенные места, и твой айфон помечает тебя как потенциально опасного члена общества, рейтинг падает на дно, и ты имеешь излишнее внимание стражей общественного порядка из министерства Добра и Поддержки. Нет, это так не работает, либо данные конфиденциальны и зашифрованы, либо уберите этот пиздежь о приватности в рекламе, ибо нет никакой приватности тогда, и Тим Кук всегда может при желании передёрнуть на ваши фоточки с телефона.

Ответить
24
Развернуть ветку
Огурцы

Хм
В принципе стать сео гугла стоит того, чтобы иметь бесплатный онлифанс на весь мир

Ответить
2
Развернуть ветку
Big Dick Energy

При этом сама база данных не будет храниться в открытом виде: она тоже будет доступна в виде хэша, то есть пользователи и Apple не смогут увидеть изображения.
Apple не смогут увидеть изображения. 

После определённого количества найденных совпадений подозрительные фотографии передадут сотруднику Apple, который вручную проверит, что они соответствуют образцу.

Ясно, понятно. Охуенный разбор полетов, вопросов нет.

Все тухлые темы по такой схеме проталкивают начиная с заботы о детях, потому что никто не будет спорить за педофилию. Какое-то время еще террористы работали, но всегда возвращаются к теме с защитой детей и потом закручивают гайки как надо.

Ответить
23
Развернуть ветку
Нужный корабль

И почему так много людей против анальных зондов? 🤔

Ответить
18
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
2
Развернуть ветку
Нужный корабль

Сколько раз повторять - я робат

Ответить
2
15 комментариев
Развернуть ветку
Нужный корабль

Почему так много «за»? Похоже, люди в принципе падки на популисткую ахинею, иначе бы каждое поколение не наступало бы на все грабли предыдущего.

Ответить
1
Развернуть ветку
Al

Потому, что эти ваши ии ебанина и хуйня. 

Ну давайте дальше пойдем. Каждому мужчине вставлять в хуй и голову чипы. Если писька начнет вставать - сразу током хуярить. А почему нет? Если ты не педофил, то ты не должен быть против. А если случайно получишь удар током в письку - ну будешь жертвой во имя всеобщей безопасности. 

Ответить
11
Развернуть ветку
Нужный корабль

Как и у многих других родителей, у меня есть фото моих детей без одежды
Объясните - зачем?

Ответить
4
Развернуть ветку
Всякий теркин30см

Комментарий удален по просьбе пользователя

Ответить
15
Развернуть ветку
Нужный корабль

Зачем родители делают такие фотки?

Ответить
0
26 комментариев
Развернуть ветку
MightyStan

В эппл работают леваки, леваки=педофилы, так что все сходится

Ответить
0
Развернуть ветку
Алексей Куликов

Потому что иногда прикольно снять, как ребёнок творит какую-то весёлую дичь, будет над чем потом посмеяться.

Ответить
5
Развернуть ветку
Hagotireno

В смысле зачем? По-твоему, родители не дрочат?

Ответить
0
Развернуть ветку
Hagotireno

В смысле зачем? По-твоему, родители не дрочат?

Ответить
0
Развернуть ветку
Виталий Иванович Иванов

Объясните — зачем?

Павел, родители воспринимают своих детей, как правило, асексуально. Фоточки/видосы обнажённых собственных детей вызывают у них умиление, не эротические переживания. Ну и, родители, например, моют своих детей, когда они маленькие, осматривают в поисках повреждений после травм. То есть такие фоточки/видосы делаются в надежде позднее *повторно пережить приятное чувство умиления*, не более того. 🤷🏼‍♂️

Ответить
0
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
–15
Развернуть ветку
Самарский франт

Комментарий удален по просьбе пользователя

Ответить
11
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
0
4 комментария
Развернуть ветку
Алексей Куликов

Кто-то всегда сможет следить, но это не значит что нужно давать всем следить. Вы в магазине платите банковской картой, продавец теоретически может спиздить данные и воспользоваться вашей картой для удаленной операции. От этого факта вы почему-то не выкладываете в открытый доступ данные карты? Зачем её беречь, итак спиздят же? Поэтому и есть желание минимизировать данные, которые о вас собирают. Не сдавать рожу и голос в Сбере, не прикреплять тройку к телефону, так гораздо меньше шансов, что ваши данные окажутся в каком-нибудь очередном сливе или меньше шансов , что товарищ майор решит именно на вас заработать очередную звёздочку.

Ответить
2
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
0
2 комментария
Развернуть ветку
Межкомнатная дверь

Куколдская позиция

Ответить
2
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
1
Развернуть ветку
Виталий Иванович Иванов

никому из вас не верю! 

Доверять это сё равно что давать взаймы. Поэтому не разумно доверять большее, чем можешь себе позволить потерять. Доверие людям, способным причинить вред, как правило, приводит к попандосу. Нередко к Большому Попандосу. ☝🏼

Ответить
0
Развернуть ветку
Виталий Иванович Иванов

В нашем мире с тотальным контролем в сети…

Мне в этой теме… неприятно не столько слежка, сколько *попытки её оправдания*. Когда государственные камеры видеоаудионаблюдения в жилищах постепенно начинают выглядеть «нормой жизни», не «стыдной идеей». 🤢🤦🏼‍♂️

Ответить
1
Развернуть ветку
Anonymous User

Разница на самом деле есть.
Одно дело следить какие сайты ты посещал, куда кликал и что лайкал, информация которая не сильно влияет на твою жизнь.
Другое дело более личное пространство вроде фотографий, где будут следить что ты наснимал, банков, чтобы знать на какие деньги и чем ты затарился, и тд

Ответить
0
6 комментариев
Развернуть ветку
Алиса Барышман

Есть третий выход, омбазываешься глушильными нанокремами маязями старцев целителей и выходишь в люди.

Ответить
0
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
–1
Развернуть ветку
Межкомнатная дверь

пользователи и Apple не смогут увидеть изображения. После определённого количества найденных совпадений подозрительные фотографии передадут сотруднику Apple, который вручную проверит, что они соответствуют образцу.

Эппл одновременно сможет и не сможет видеть ваши снимки. Модерация Шредингера

Ответить
7
Развернуть ветку
некипишуй

очень мало ссылок на чужие твиты для такой новости

Ответить
3
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
15
Развернуть ветку
Александр Демьяненко

Как и у многих других родителей, у меня есть фото моих детей без одежды (попробуйте заставить четырёхлетнего ребёнка одеться).

Не понял какая тут связь между фотками и одеванием? 

Ответить
6
Развернуть ветку
Страшный кот

Комментарий удален по просьбе пользователя

Ответить
3
4 комментария
Развернуть ветку
Нужный корабль

И если в базе окажутся фотки их ребёнка, то это тревожный звоночек

Ответить
3
Развернуть ветку
Vasya Pupkin

Блин, как сложно одеть дочь, никак не получается, а сфоткаю ка я её пелотку, авось получится!

Ответить
2
1 комментарий
Развернуть ветку
Antony Divnich

Приглашаю Эппл смотреть всю мою коллекцию мемов в фотографиях

Ответить
5
Развернуть ветку
Нужный корабль

Комментарий удален по просьбе пользователя

Ответить
7
3 комментария
Развернуть ветку
Алексей Куликов

Роскомнадзор посмотрит, не переживайте, только закон протолкнут, что надо детей в России от онлайн экстремистов запретить и обяжут технологические компании следить за этим.

Ответить
2
Развернуть ветку
Нужный корабль

Пидоры одни, свой, короч

Ответить
1
1 комментарий
Развернуть ветку
Пётр Козлов

О, ты футболом увлекаешься

Ответить
0
1 комментарий
Развернуть ветку
Evgeny Nyagu

Жалко Вальтери (

Ответить
0
2 комментария
Развернуть ветку
AZP

Здравствуйте, мы нашли у вас совпадение с фото из нашей базы. Добро пожаловать в камеру к Юрию Дмитриеву, у вас с ним будет общая статья.

Ответить
0
Развернуть ветку
Киберморж

Скользкая дорожка преступной мягкости: почему Сталина критикуют из-за массовых расстрелов и депортаций, хотя иначе было нельзя.

Ответить
5
Развернуть ветку
Дамир Камалетдинов

Тёплое с мягким сравниваешь. Apple не сама себе придумывает законы, но должна их исполнять

Ответить
1
2 комментария
Развернуть ветку
Stanley H. Tweedle

Ну конечно же прояблочковая помойка тж написала оправдывающую статью.

Ответить
5
Развернуть ветку
Дамир Камалетдинов

Спасибо за комплимент

Ответить
1
1 комментарий
Развернуть ветку
Кир Кос

Проблема в том, что люди не понимают главного - действительно надежные решения работают для всех одинаково.
Если слить или расшифровать твои данные нельзя - то нельзя и слить и расшифровать данные убийцы.
Если твои сообщения нельзя перехватить - то так же защищены и наркоторговцы.
Иначе любая лазейка - делает решение одинаково ненадежным для всех.

С другой стороны - применительно к цп или наркотикам - еще ни один ребенок не пострадал от насилия в интернете (разве что психологически) и ни грамма веществ не просочилось через мессенджеры.
Не говоря уж про то, куда нужно воткнуть чип с нейросетью, чтобы контролировать опасные преступно-анонимные разговоры между людьми на улице

Ответить
5
Развернуть ветку
Key X51

стоп, стоп Эппле о наркоторговцах и киллерах и словом не обмолвился, разве так тоже можно?
Хотя было бы удивительно, что они выпали из всевидящего ока

Ответить
0
1 комментарий
Развернуть ветку
Михаил Левит

Привет, старый друг.

Ответить
4
Развернуть ветку
Key X51

И рядом комп в выдранным RJ45 и ЮСБ, и намертво приваренным переходником

Ответить
0
Развернуть ветку
Vladic Samovar

В России тоже официальное залезание в анус началось с блокировки контента с детской порнографией, к слову.
Вообще, смешно наблюдать за всякими искренне охуевшими, типа ОКАЗЫВАЕТСЯ, техгиганты копошатся в твоем телефоне с их операционкой и, в теории, могут вытянуть любой контент с любого сервиса оттуда. Ну серьезно блять, вам сколько лет? Always has been. 
Еще смешнее выглядит автор статьи, доказывающий, что раз Эпол сказала будет только голых детей искать, значит так оно и будет. 

Ответить
4
Развернуть ветку
Дамир Камалетдинов

Сначала лайкнул, а потом понял, что ты не прочитал материал или прочитал его по диагонали. То, что пока они будут искать фото голых детей не значит, что это не станут использовать для чего-то другого — и это вызывает серьёзные опасения, да

Ответить
0
Развернуть ветку
Tannim

Я не очень понимаю почему кто-то сравнивает проверку фото/видео контента в облаке(на серверах Google/Facebook и так далее), с тем же самым процессом на УСТРОЙСТВЕ ПОЛЬЗОВАТЕЛЯ.

Может я чего-то не знаю, но пока я в Гуглфото не выгружу фотографии — алгоритмы их проверять не будут.

Ответить
3
5 комментариев
Развернуть ветку
Дамир Камалетдинов

Здесь это работает так же: если включена выгрузка в iCloud, фотки проверят, если выключена, то нет

Ответить
0
12 комментариев
Развернуть ветку
Марк Захаров

Иначе нельзя? ИИ светофор от солнца отличить не может в нынешних технологиях. А что будет когда я начну фотать как мои дети играют в Пиньяту или купаются в ванной?

Ответить
2
2 комментария
Развернуть ветку
Дмитрий Шубкин

Эпол якобы не могли поступать иначе из-за законов, окей.
Что мешает завтра издать тут закон об обязательной проверке облачных фотографий для защиты детей? Технология уже готова, будьте добры предоставить доступ. 
И не надо только рассказывать как эпол просто будет игнорировать все законные требования стран.

Ответить
2
2 комментария
Развернуть ветку
Андрей Охапкин

Всё не так однозначно! 

Ответить
1
1 комментарий
Развернуть ветку
Коровка говорит мууу

Порицаю эппл

*отправлено с iPhone

Ответить
1
3 комментария
Развернуть ветку
Нужный корабль

Так смотрят в файлы на устройстве или только в iCloud? Если только в облаке, то сравнение корректное, если нет - то это рука в жопе и кажется, Apple тут первопроходцы.

И касается ли это бэкапов?

Ответить
0
2 комментария
Развернуть ветку
Нефер Тити

Заебали эти дети. Хватит рожать, мешаете жить 

Ответить
1
Развернуть ветку
Нужный корабль

1) база данных НЕ будет храниться в открытом виде: она тоже будет доступна в виде хэша … и Apple не смогут увидеть изображения.

2) После определённого количества найденных совпадений подозрительные фотографии передадут сотруднику Apple, который вручную проверит, что они соответствуют образцу.

То есть человек будет перепроверять хеши? Или таки человек будет смотреть детское порно и сравнивать сцены насилия на двух мониторах? 🤭

Ответить
1
Развернуть ветку
Нужный корабль

Критикуют тупицы ибаные. Нам и без цензуры збс было

Ответить
0
1 комментарий
Развернуть ветку
Нужный корабль

Новость завершена как-то не по-журналистки(

Ответить
0
1 комментарий
Развернуть ветку
Evgeny Kovalyov

Дамир, вам с таким умением сочинять почти не ангажированные посты только в федеральные СМИ - захантят вмиг.

Ответить
0
2 комментария
Развернуть ветку
ziggy stardust

Новость слишком нераскрыта. На основании каких хэшей будет идти сверка? Вы же понимаете, что простой md5 обходится как нехуй делать?

Ответить
0
Развернуть ветку
Нужный корабль

apple которая совсем недавно противостояла ФБР, отказываясь разблокировать айфон стрелка в Сан-Бернардино
Хаха

Ответить
0
Развернуть ветку
Станислав Шелегов

А теперь...у чиновников принято вроде как иметь айфун. Не уверен как в других странах и возможно есть всякие специальные айфуны с ограниченными, но...
Все любят фоткать документы, они хранятся в галерее и потом улетают в облако, и там лежат.
И теперь официально, хотя вероятно и раньше Эппл имело к ним доступ.
Зачем ЦРУ(например) тогда лол, всё и так на блюдечке с голубой каёмочкой.
А потом ВНЕЗАПНО окажется, что и текст весь сканируется.
Причём я не уверен что тоже самое не делает андроид.
Так как андроид опенсоос типа и оттуда можно выпилить всякое и вероятно сделать его более защищённым но что там в ядрышке кроется, только Ктулху и Императору известно.
Предлагаю всем расслабиться и не париться, так как те, кому нужно париться вряд-ли используют айфун или "обычный" андроид.
Желаю всем здоровья и не париться о том о чём я надеюсь вам париться не нужно!

Ответить
0
Развернуть ветку
barbarella

Когда-нибудь педофилы станут символом свободы в интернете и в сми.
Лакмусовой бумажкой. Под предлогом борьбы с ними мир скатывается в цифровую тиранию. Если все будет хорошо, то предсказываю марши педофилов по центральным улицам крупных городов. На 99% они будут состоять из людей с лозунгами "К сожалению вы существуете, но что не сделаешь ради свободы информации".

Ответить
0
Развернуть ветку
IO

Заебали эти дети, давайте их запретим

Ответить
0
Развернуть ветку
Нужный корабль

Молодцы. Серьёзно. Это важно. Все понятно и ясно.

Ответить
–7
Развернуть ветку
Читать все 290 комментариев
null