据报道,苹果因未能在 iCloud 上实施检测儿童性虐待材料(CSAM)的系统而面临儿童性虐待受害者的诉讼 纽约时报。该诉讼要求约 2,680 人赔偿超过 12 亿美元的损失,反映出涉嫌在保护用户免受伤害方面的疏忽。
苹果因儿童性虐待材料检测失败被起诉 索赔 12 亿美元
2021 年,苹果宣布打算推出一款 CSAM 检测工具旨在扫描 iCloud 中是否存在虐待图像并向国家失踪和受虐儿童中心发出警报。该倡议旨在有效打击剥削儿童行为。然而,由于隐私问题引发强烈反对,苹果放弃了该项目,导致被告得不到保护,持续的滥用行为也没有得到解决。
该诉讼在北加州提起,并指出苹果“未能实施这些设计或采取任何措施来检测和限制”其设备上的 CSAM。该说法包括一名 27 岁女性的经历,她表示,她仍然收到有关她小时候拍摄的照片在网上分享的执法通知。该诉讼强调了受害者因这些材料不受控制地传播而承受的情绪混乱。
“儿童性虐待内容令人憎恶,我们致力于打击掠夺者将儿童置于危险之中的方式。我们正在紧急、积极地进行创新,以打击这些犯罪行为,同时不损害所有用户的安全和隐私。例如,通信安全等功能会在儿童收到或试图发送包含裸露内容的内容时发出警告,以帮助打破导致儿童性虐待的胁迫链。我们仍然专注于建立保护措施,以帮助防止 CSAM 的传播,”Apple 发言人 Fred Sainz 说道。 恩杰特。
作为回应,苹果重申了其打击儿童性虐待的承诺,同时优先考虑用户隐私。发言人弗雷德·塞恩斯 (Fred Sainz) 指出,“儿童性虐待内容令人憎恶,我们致力于打击掠夺者将儿童置于危险之中的方式。”他提到了通信安全等现有措施,该措施警告儿童不要分享露骨内容。
尽管做出了这些努力,苹果公司最近还是面临着更多审查,英国国家防止虐待儿童协会指责该公司少报了在其平台上发现的 CSAM。这给苹果公司有效处理这一问题的策略带来了越来越大的压力。
特色图片来源: 尼尔斯·凯尔/Unsplash