Apple столкнулась с иском от жертв сексуального насилия над детьми за пренебрежение внедрением системы, направленной на обнаружение материалов о сексуальном насилии над детьми (CSAM) в iCloud, согласно сообщению Нью-Йорк Таймс. Иск, поданный в Северной Калифорнии, требует возмещения ущерба на сумму более 1,2 миллиарда долларов примерно 2680 лицам. В иске утверждается халатность Apple в защите пользовательских данных, особенно после того, как компания первоначально предложила CSAM инструмент обнаружения в 2021 году.
Предыстория инструмента Apple CSAM и последующий отказ от него
В 2021 году Apple объявила о планах создания инструмента обнаружения CSAM, который будет сканировать iCloud на наличие оскорбительных изображений и предупреждать Национальный центр по делам пропавших и эксплуатируемых детей. Эта инициатива была направлена на повышение безопасности детей и эффективную борьбу с эксплуатацией. Однако компания отказалась от проекта из-за резкой реакции на возможные нарушения конфиденциальности. Критики выразили обеспокоенность тем, что технология может нарушить права пользователей на конфиденциальность, что приведет к отказу от нее. В результате пострадавшие утверждают, что Apple не приняла необходимых мер по предотвращению распространения вредоносных изображений.
В иске описываются страдания, которые испытали потерпевшие, в том числе 27-летняя женщина, которая продолжает получать уведомления от правоохранительных органов по поводу распространения ее изображений из своего детства. Распространяющиеся изображения усугубляют эмоциональные страдания участников. Истцы утверждают, что неспособность Apple реализовать предложенные ею собственные меры безопасности позволила таким материалам бесконтрольно сохраняться на ее платформе.
Реакция Apple и существующие меры
В ответ на иск Apple подчеркнула свою приверженность защите детей, сохраняя при этом конфиденциальность пользователей. Пресс-секретарь Фред Сайнс заявил: «Материалы о сексуальном насилии над детьми отвратительны, и мы стремимся бороться с тем, как хищники подвергают детей риску». Он указал на существующие функции безопасности, такие как безопасность общения, которая предупреждает пользователей, когда они отправляют или получают откровенный контент. Несмотря на эти постоянные усилия, компания сталкивается с повышенным вниманием к ее эффективности в решении проблем CSAM.
Ранее в этом году Apple также подверглась критике со стороны Национального общества по предотвращению жестокого обращения с детьми Великобритании (NSPCC), которое обвинило компанию в занижении сведений о случаях CSAM, обнаруженных на ее платформах. Это растущее давление подчеркивает сохраняющуюся обеспокоенность по поводу стратегии Apple по борьбе с эксплуатацией детей и обеспечению безопасности пользователей ее сервисов.
Предоставленное изображение предоставлено: Тим Моссхолдер/Unsplash
Сообщение о том, что Apple подала в суд на 1,2 миллиарда долларов из-за сбоев в обнаружении CSAM, впервые появилось на TechBriefly.
Source: Apple подала в суд на 1,2 миллиарда долларов из-за сбоев в обнаружении CSAM





