人类是 实施 新的数据处理程序,要求所有Claude用户在9月28日之前决定他们的对话是否可以用于AI模型培训。该公司指示询问其博客文章有关政策变化的信息,但外部分析试图确定修订的原因。
核心变化涉及人类现在寻求使用用户对话和编码会话来培训其AI系统的人。以前,拟人化并未利用消费者聊天数据进行模型培训。现在,对于不选择退出此数据使用协议的用户,数据保留将延长到五年。这与以前的实践发生了重大转变。
以前,人类消费品的用户被告知,他们的提示和随之而来的对话输出将在30天内自动从人类的后端系统中删除。如果法律或政策要求要求更长的保留期或用户的投入被标记为违反公司政策,则会发生例外。在这种情况下,用户输入和输出可以保留长达两年。
新政策专门适用于Claude Free,Pro和Max的用户,包括Claude代码的用户。利用克劳德·戈夫(Claude Gov),克劳德(Claude)工作,克劳德(Claude)的教育或通过其API访问平台的商业客户免于这些变化。这反映了OpenAI采用的类似方法,该方法将企业客户免受数据培训政策的影响。
人类通过指出不选择退出的用户将“帮助我们提高模型安全性,使我们的系统更准确,并且不太可能提出无害的对话的可能性。”该公司补充说,这些数据将“还可以帮助未来的Claude模型在编码,分析和推理等技能方面提高,最终为所有用户提供了更好的模型。”
这种框架将政策的变化表示为改善AI模型的协作努力。但是,外部分析表明,潜在的动机更加复杂,植根于AI行业内的竞争压力。也就是说,与其他大型语言模型公司一样,人类也需要大量数据才能有效地培训其AI模型。访问数百万个克劳德互动将为提高人类对OpenAI和Google等竞争对手的立场所需的现实内容提供所需的现实内容。
政策修订还反映了有关数据政策的更广泛的行业趋势。像人类和Openai这样的公司对数据保留实践的审查越来越大。例如,Openai目前正在提出法院命令,该命令迫使该公司无限期地保留所有消费者聊天对话,包括已删除的聊天。该命令源于《纽约时报》和其他出版商提起的诉讼。
6月,Openai COO Brad LightCap将法院命令描述为“一定且不必要的需求”,即“从根本上讲,与我们对用户的隐私承诺有冲突”。法院命令免费影响ChatGpt,Plus,Pro和团队用户。企业客户和零数据保留协议的客户仍然不受影响。
用户策略的频繁更改使用户产生了混乱。许多用户仍未意识到这些不断发展的政策。技术进步的快速步伐意味着隐私政策可能会发生变化。在其他公司公告中,通常会简要传达更改。
Anthropic对其新政策的实施遵循了一种模式,这引起了人们对用户意识的关注。新用户将能够在注册过程中选择其偏好。但是,现有用户在大文本中呈现了一个标有“消费者术语和政策更新”的弹出窗口,并带有一个突出的黑色“接受”按钮。较小的培训开关用于训练权限下面,以较小的打印方式位于“ ON”位置。
该设计引起了人们的担忧,即用户可能会迅速单击“接受”而不完全意识到他们同意数据共享。该观察结果最初是由Verge报告的。用户意识的赌注很重要。专家一直警告说,AI周围的复杂性使获得有意义的用户同意很困难。
联邦贸易委员会(FTC)此前曾干预这些问题。 FTC警告AI公司不要“秘密改变其服务条款或隐私政策条款,或在超链接,法律界或精美印刷中掩盖披露”。该警告表明,可能与可能无法提供足够的用户意识或同意的实践发生冲突。
当前对这些实践的FTC监督水平仍然不确定。该委员会目前仅在其五名专员中只有三名。已经提交了FTC的调查,以确定目前是否正在审查这些实践。





