
曾在OpenAI领导政策研究七年的迈尔斯·布伦达奇,呼吁通过他的新机构AVERI对领先的人工智能模型进行外部审计。行业不应再被允许自己批改作业。
迈尔斯·布伦达奇创立了人工智能验证与评估研究所(AVERI),这是一个倡导对前沿人工智能模型进行独立安全审计的非营利组织。Brundage于2024年10月离开OpenAI,担任公司如何为通用人工智能的到来做准备的顾问。
“我在OpenAI工作时学到的一件事是,公司正在自主摸索这类事情的规范,”Brundage告诉《财富》。“没有人强迫他们与第三方专家合作,确保一切安全可靠。他们有点自己定规则。”
领先的人工智能实验室确实会进行安全测试并发布技术报告,有时还会与外部红队组织合作。但消费者和政府目前只能相信实验室的说法。
内部捐赠暗示行业的不安
AVERI迄今已筹集750万美元,目标为1300万美元,用于支持14名员工。资助方包括前Y Combinator总裁Geoff Ralston和AI承保公司。值得注意的是,该研究所还获得了领先人工智能公司员工的捐赠。布伦达奇说:“这些人知道尸体埋葬在哪里,并且希望看到更多的问责制。”
随着发布,Brundage与30多位人工智能安全研究人员及治理专家共同发表了一篇研究论文,概述了独立审计的详细框架。该论文提出了“人工智能保证等级”——第一级大致与当前状态相符,有限的第三方测试和模型访问受限,而第四级则提供足够强健的“条约级”保证,作为国家间国际协议的基础。
保险公司和投资者可能会强制提出此事
即使没有政府强制要求,布伦达奇认为,若干市场机制也可能推动人工智能公司走向独立审计。部署人工智能模型用于关键业务流程的大型企业,可能需要审计作为购买条件,以保护自身免受隐藏风险。
Brundage表示,保险公司可能扮演特别重要的角色。业务连续性保险公司可以在为高度依赖人工智能的公司制定保单前,先行进行独立评估。直接与OpenAI、Anthropic或Google等AI公司合作的保险公司也可能要求审计。“保险发展迅速,”布伦达奇说。
