На Apple подали в суд из-за невнедрения инструментов для выявления материалов о сексуальном насилии над детьми (CSAM) в iCloud. Компания анонсировала планы по сканированию iCloud для выявления материалов CSAM, но впоследствии отказалась от них.
В 2021 году Apple объявила, что разрабатывает инструмент для выявления CSAM в iCloud, который бы обозначал соответствующие изображения и сообщал в Национальный центр пропавших и эксплуатируемых детей. Однако эти планы столкнулись с резкой критикой из-за рисков для конфиденциальности, и компания решила отказаться от их реализации.
Это вызвало другую волну разочарования. Поэтому в минувшие выходные в Северной Калифорнии подали иск, требующий компенсации в более чем $1,2 млрд для потенциальной группы из 2680 пострадавших. В документе утверждается, что после представления планов по защите детей Apple «не реализовала эти решения или любые другие меры по выявлению и ограничению распространения CSAM», что нанесло ущерб жертвам, поскольку эти материалы продолжали циркулировать.
Представитель Apple Фред Сайнц в ответ на это заявил следующее:
«Материалы о сексуальном насилии над детьми отвратительны, и мы остаемся преданными борьбе с действиями, которые подвергают детей опасности. Мы срочно и активно работаем над инновациями для борьбы с этими преступлениями, не жертвуя безопасностью и приватностью наших пользователей. Например, функция «Безопасность коммуникаций» предупреждает детей, когда они получают или пытаются отправить контент с обнаженными изображениями, помогая разорвать цепь манипуляций, которые ведут к сексуальному насилию. Мы остаемся сосредоточенными на создании защиты, которая поможет предотвращать распространение CSAM еще до его возникновения».
Этот иск появился всего через
Читать на itc.ua