В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации несовершеннолетних, путем автоматического сравнения снимков по хэш-суммам с базой.
Помогаем
Детям из Мариуполя нужно 120 ноутбуков для обучения - подари старое "железо", пусть оно работает на будущее Украины
Анонсированный еще в августе 2021 года проект сразу вызвал споры — впервые Apple приостановила его в сентябре из-за беспокойства групп по цифровым правам и исследователей относительно потенциальных проблем с конфиденциальностью для всех пользователей iCloud.
Впрочем, на этой неделе другая группа по безопасности Heat Initiative заявила, что начинает кампанию, которая потребует от Apple «находить, сообщать и удалять» материалы сексуального насилия над детьми из iCloud и предлагать пользователям больше инструментов для сообщения о нарушении.
Apple, на удивление, ответила на призыв (компания редко комментирует свои решения, поэтому заявление, похоже, можно трактовать как готовность компании к публичной дискуссии).
«Материалы с сексуальным насилием над детьми ужасны и мы стремимся разорвать цепь принуждения и влияния, которое делает детей восприимчивыми к этому. Однако сканирование конфиденциальных данных iCloud для каждого пользователя создало новые векторы угроз, которые злоумышленники могли бы найти и использовать», — написал Эрик Нойеншвандер, директор по конфиденциальности пользователей и безопасности детей Apple.
Группу Heat Initiative возглавляет Сара Гарднер, бывший вице-президент по внешним связям некоммерческой организации Thorn, работающей над использованием новых технологий для борьбы с эксплуатацией детей в
Читать на itc.ua