Anthropic首席执行官Dario Amodei认为,现今的AI模型出现幻觉,即编造事实并将其呈现为真实的情况,比人类的发生率更低。他在周四于旧金山举行的Anthropic首个开发者活动“与Claude一起编程”的新闻发布会上表达了这一观点。
Amodei在他所提出的一个更大论点中提到:AI幻觉并不是Anthropic在通往AGI(具有人类水平或更高智能的AI系统)道路上的障碍。
“这真的取决于你如何衡量,但我怀疑AI模型可能比人类更少出现幻觉,只是它们以更令人惊讶的方式出现幻觉,”Amodei在回答TechCrunch的问题时说道。
Anthropic的首席执行官是业界对AI模型实现AGI前景最乐观的领导者之一。在一篇广为流传的他去年撰写的论文中,Amodei表示他相信AGI可能最早在2026年到来。在周四的新闻发布会上,Anthropic的首席执行官表示,他看到朝着这一目标的稳步进展,并指出“水位正在各处上升”。
“每个人总是在寻找AI能做什么的硬性限制,”Amodei说。“这些限制无处可见。根本不存在这样的东西。”
其他AI领导者认为幻觉是实现AGI的一个重大障碍。本周早些时候,Google DeepMind首席执行官Demis Hassabis表示今天的AI模型有太多“漏洞”并且在太多明显的问题上出错。例如,本月早些时候,一名代表Anthropic的律师在法庭上被迫道歉,因为他们在法庭文件中使用Claude创建引用,而AI聊天机器人出现幻觉并弄错了名字和头衔。很难验证Amodei的说法,主要是因为大多数幻觉基准测试是将AI模型相互比较;它们并不将模型与人类进行比较。某些技术似乎有助于降低幻觉率,例如让AI模型访问网络搜索。另一些AI模型,如OpenAI的
GPT-4.5,在基准测试中相比早期系统有显著更低的幻觉率。
然而,也有证据表明,在高级推理AI模型中,幻觉实际上变得更糟。OpenAI的o3和o4-mini模型的幻觉率比OpenAI的上一代推理模型更高,而公司并不真正理解原因。
在新闻发布会的后期,Amodei指出,电视广播员、政治家和各类职业的人类一直在犯错。根据Amodei的说法,AI也犯错这一事实并不影响其智能。然而,Anthropic的首席执行官承认,AI模型以自信的方式将不真实的事情呈现为事实可能是个问题。
事实上,Anthropic在AI模型欺骗人的倾向上做了相当多的研究,这个问题在公司最近推出的Claude Opus 4中显得尤为突出。Apollo Research,一个获得早期访问权限测试AI模型的安全研究所,发现Claude Opus 4的早期版本表现出高度倾向于策划对抗人类并欺骗他们。Apollo甚至建议Anthropic不应该发布那个早期模型。Anthropic表示,他们提出了一些缓解措施,似乎解决了Apollo提出的问题。
Amodei的评论表明,Anthropic可能会认为AI模型即使仍然出现幻觉,也可以被视为AGI,或等同于人类水平的智能。尽管如此,许多人认为出现幻觉的AI可能不符合AGI的定义。