Anthropic 提出了一个全新的透明度框架旨在应对前沿AI模型开发中日益增长的问责需求。该提案主要针对开发强大AI模型的大型AI公司,这些公司以计算能力、成本、评估性能和年度研发支出等因素为特征。目标是建立一套标准,以确保安全、降低风险,并增加公众对这些先进AI系统开发和部署的透明度。
框架的核心是实施安全开发框架(SDFs),这将要求大型AI公司评估和降低其模型可能带来的潜在灾难性风险。这些风险包括化学、生物和放射性危害,以及由模型自主性不当引起的伤害。提案指出,这些框架不仅应解决风险缓解问题,还应确保AI开发过程的负责任处理。
框架的一个关键要求是公开披露。根据提议的法规,AI公司将被要求通过注册网站公开其SDFs,提供其安全实践的透明度。这将允许研究人员、政府和公众访问有关部署模型的重要信息,确保安全标准得到满足,并且任何风险都得到妥善管理。此外,公司将被要求发布系统卡,提供模型测试程序、评估结果和实施的缓解措施的摘要。每当模型被修改或添加新功能时,这些文档都需要更新。
框架还建议小型开发者和初创公司免于这些要求。相反,法规将适用于那些模型可能造成重大危害的大型AI公司,例如那些拥有大量计算能力或财务资源的公司。豁免旨在避免对小公司施加过重负担,同时仍将监管重点放在该领域的最大参与者上。
此外,提案包括执行合规的具体条款。AI公司提供关于其遵守框架的虚假或误导性声明将构成法律违规,确保在必要时可以应用举报者保护。执行机制将允许总检察长对违规行为追求民事处罚,帮助维护系统的完整性。
社区反应反映了对最近全球AI监管讨论的乐观、怀疑和实际关切的混合。
AI专家Himanshu Kumar在X上评论:
促进开源AI开发不也是安全创新的关键吗?
与此同时,用户怀疑观察者评论:
由谁来执行?这感觉非常以美国为中心。那中国实验室或其他不在此范围内的呢?举报者保护听起来不错,但没有全球范围的影响,这只是权宜之计。希望他们在AI安全峰会上对此进行澄清!
最终,提议的透明度框架旨在在确保AI安全和促进持续创新之间取得平衡。虽然框架设定了透明度的最低标准,但它有意避免过于详细规定,允许AI行业随着技术的不断发展而适应。通过促进透明度,框架旨在为AI开发者建立明确的问责制,帮助政策制定者和公众区分负责任和不负责任的实践。这可以作为进一步监管的基础,如果需要的话,提供必要的证据和见解,以确定随着AI模型的进步是否需要额外的监督。