为什么人工智能什么都懂,却好像什么都不懂

2024年09月29日 由 neo 发表 56 0

在全球范围内,Gemini和ChatGPT等AI工具已赢得了超过5亿人的月度信赖,它们仿佛无所不知,从烹饪面食到性教育,再到作业解答,无所不包。然而,若AI建议你用汽油煮面食,这样的“创意”无疑让人对其在其他领域(如避孕知识或代数问题)的建议也打上问号。

QQ截图20240929164336

今年一月,世界经济论坛上,OpenAI的首席执行官Sam Altman给出了一个颇具洞察力的承诺:“我无法窥探你的思想,但我能要求你解释你的推理,并判断其合理性。我坚信,我们的AI系统也将具备这样的能力,能够清晰阐述从A到B的推理过程,让我们判断其正确性。”

知识的基石在于证明

Altman的愿景是,大型语言模型(LLMs)如ChatGPT能对其输出的每一句话都给出透明的解释。这并非无稽之谈,因为知识的本质就在于其可验证性。当我们确信自己了解某事时,往往是因为我们有充分的证据或理由来支持这一信念。

LLMs被设计为可信赖的信息源,但除非它们能揭示其推理过程,否则我们无法确定其断言是否符合我们对知识证明的标准。比如,若某人告诉你田纳西州的烟雾源于加拿大野火,你可能相信;但若他坚称蛇斗是论文答辩的常规环节,你的信任就会大打折扣。这时,了解他得出结论的依据就变得至关重要。

AI的“幻象”与现实

问题在于,当前的AI系统还无法分享其言论背后的真实推理,因为它们本质上并不具备推理能力。LLMs更多的是通过大量文本数据的学习,来预测和生成语言模式,而非进行真正的逻辑推理。这种输出虽然能逼真地模仿人类知识分子的语言,但实质上却缺乏实质性的证明。

正如一些学者所指出的,LLMs生成的许多内容,尽管有时事实准确,却更像是“葛蒂尔案例”——即真实的信念与对这些信念的无知证明并存。这就像是在炎热沙漠中寻找水源时看到的幻象,虽然最终可能发现水源,但最初的“认识”却并非基于真实的知识。

AI输出的信任危机

每当我们从LLMs中获取信息时,都仿佛在经历Dharmottara的旅行者之旅。即使LLM基于高质量数据集给出真实的断言,这些断言也如同幻象一般,缺乏直接支撑其正确性的证据链条。Altman的承诺因此显得颇具误导性,因为LLM无法提供真正的证明,只能给出看似合理的语言模式模拟。

未来:每个输出都需要理由

面对这一困境,我们并非束手无策。首先,要认识到LLMs作为工具的强大与局限。对于专业人士而言,他们已学会如何结合LLMs的输出与自身专业知识进行判断。但对于普通大众,尤其是那些在专业知识领域寻求帮助的群体,我们更需要明确的指导:何时可以信任AI,何时又需要谨慎。

信任的建立基于透明与理解。我们需要知道LLMs无法直接告诉我们的是否每个输出都有充分的理由支撑。只有这样,我们才能在享受AI带来的便利的同时,避免被其表面的“知识”所迷惑。毕竟,在橄榄油与汽油煮面的选择上,我们或许能凭直觉分辨,但在更复杂的领域里,保持这份清醒就显得尤为重要了。

文章来源:https://venturebeat.com/ai/why-ai-is-a-know-it-all-know-nothing/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消