27-летняя женщина, пережившая насилие в младенчестве, подала иск против компании Apple. Она утверждает, что компания не предприняла достаточно мер для предотвращения распространения фотографий, фиксирующих ее детство. Этот иск поднимает актуальные вопросы о том, как технологические компании управляют и сообщают о материалах с насилием над детьми (CSAM) онлайн. В суде Северного округа Калифорнии США говорится, что Apple не реализовала до конца свою обещанную технологию для выявления и удаления незаконных изображений.
Истец, чье имя держится в тайне ради безопасности, утверждает, что, несмотря на разработку системы сканирования NeuralHash, Apple отказалась от нее после критики со стороны экспертов в области кибербезопасности. Согласно данным The New York Times, иск может охватить до 2 680 жертв, а сумма исковых требований может превысить 1,2 миллиарда долларов. Иск критикует подход Apple к борьбе с CSAM, отмечая, что компания традиционно сообщала о значительно меньшем количестве случаев, чем такие гиганты, как Google и Facebook.
Этот кейс отражает новые юридические стратегии, оспаривающие ответственность технологических компаний за контент, создаваемый пользователями. Последние судебные решения предполагают, что прежние защиты в рамках Раздела 230 Закона о приличии в коммуникациях могут не обеспечивать полного иммунитета.
Apple утверждает, что она привержена борьбе с CSAM, при этом защищая конфиденциальность пользователей. Компания внедрила такие инструменты безопасности, как предупреждения о неподобающем контенте в приложении Сообщения и методы сообщества о вредоносных материалах.
Юридические эксперты считают, что у иска есть серьезные сложности. Риана Пфефферкорн из Стэнфордского института искусственного интеллекта отметила, что успешное судебное преследование может вызвать сложные конституционные вопросы о государственном контроле контента.
Этот иск возник на фоне более широких опасений по поводу того, как платформы справляются с чувствительным контентом. С 2009 года, когда Microsoft впервые разработала PhotoDNA для выявления незаконных изображений, технологические компании сталкиваются с вызовом: как сбалансировать проблемы конфиденциальности с усилиями по защите детей.
Для истца этот иск — не просто юридический вызов. Это способ привлечь технологические компании к ответственности за защиту уязвимых людей от непрекращающейся травмы, вызванной постоянным распространением материалов о насилии.