Anthropic正在对其用户数据处理方式进行重大调整,要求所有Claude用户在9月28日之前决定是否愿意将他们的对话用于AI模型训练。虽然公司在被问及此举的动机时建议我们查看其博客文章关于政策变化的内容,但我们也有一些自己的看法。
首先,变化是什么:之前,Anthropic并未使用消费者聊天数据进行模型训练。现在,公司希望在用户对话和编码会话中训练其AI系统,并表示对于未选择退出的用户,将数据保留时间延长至五年。
这是一个重大的更新。此前,Anthropic的消费者产品用户被告知,他们的提示和对话输出将在30天内自动从Anthropic的后台删除,除非法律或政策要求保留更长时间,或者他们的输入被标记为违反其政策,在这种情况下,用户的输入和输出可能会被保留长达两年。
所谓消费者,我们指的是新政策适用于Claude Free、Pro和Max用户,包括使用Claude Code的用户。使用Claude Gov、Claude for Work、Claude for Education或API访问的企业客户将不受影响,这与OpenAI类似,保护企业客户免受数据训练政策的影响。
那么为什么会发生这种情况?在关于更新的帖子中,Anthropic将这些变化描述为用户的选择,称如果不选择退出,用户将“帮助我们提高模型安全性,使我们的系统在检测有害内容时更准确,并减少误标无害对话的可能性。”用户还将“帮助未来的Claude模型在编码、分析和推理等技能上提高,最终为所有用户带来更好的模型。”
简而言之,帮助我们帮助您。但完整的真相可能没那么无私。
像其他大型语言模型公司一样,Anthropic需要数据远胜于需要人们对其品牌的模糊好感。训练AI模型需要大量高质量的对话数据,访问数百万次Claude互动应该能提供正是Anthropic在与OpenAI和Google等竞争对手竞争中所需的真实世界内容。
除了AI开发的竞争压力外,这些变化似乎也反映了数据政策的更广泛行业转变,因为像Anthropic和OpenAI这样的公司面临着对其数据保留实践的日益严格审查。例如,OpenAI目前正在对一项法院命令进行抗争,该命令要求公司无限期保留所有消费者ChatGPT对话,包括已删除的聊天记录,因为《纽约时报》和其他出版商提起的诉讼。
在六月,OpenAI首席运营官Brad Lightcap称这是一项全面且不必要的要求,这“根本上与我们对用户的隐私承诺相冲突。”该法院命令影响ChatGPT Free、Plus、Pro和Team用户,尽管企业客户和那些有零数据保留协议的用户仍然受到保护。
令人担忧的是这些不断变化的使用政策给用户带来了多大的困惑,许多用户对此仍然一无所知。公平地说,现在一切都在快速变化,因此随着技术的变化,隐私政策也必然会改变。但许多这些变化相当全面,并且仅在公司其他新闻中短暂提及。(您不会认为Anthropic用户周二的政策变化是非常大的新闻,基于公司在其新闻页面上放置此更新的位置。)
但许多用户没有意识到他们同意的指南已经改变,因为设计几乎保证了这一点。大多数ChatGPT用户继续点击“删除”切换按钮,但实际上并没有删除任何东西。同时,Anthropic的新政策实施遵循了一个熟悉的模式。
怎么说?新用户将在注册时选择他们的偏好,但现有用户会看到一个弹出窗口,上面有“大字的‘消费者条款和政策更新’”和一个显眼的黑色“接受”按钮,下面是一个更小的训练权限切换开关——默认设置为“开”。
正如今天早些时候被The Verge观察到的那样,这种设计引发了用户可能快速点击“接受”而没有注意到他们同意数据共享的担忧。
与此同时,用户意识的风险再高不过了。隐私专家长期以来警告说,围绕AI的复杂性使得有意义的用户同意几乎无法实现。在拜登政府下,联邦贸易委员会甚至介入,警告AI公司如果“偷偷更改其服务条款或隐私政策,或将披露埋在超链接、法律术语或小字中”可能面临执法行动。