黄仁勋探讨人工智能未来与解决AI幻觉问题

2024年03月20日 由 daydream 发表 111 0

人工智能通用智能(AGI),通常被称为“强人工智能”、“完全人工智能”、“人类水平的人工智能”或“通用智能行为”,是人工智能领域即将实现的一个重大飞跃。与专为特定任务设计的狭义人工智能不同,例如检测产品缺陷、新闻摘要或为您构建网站,AGI将能够执行一系列广泛的认知任务,其能力将达到或超过人类水平。本周在英伟达年度GTC开发者大会上接受媒体采访时,CEO黄仁勋似乎对讨论这个话题感到厌倦——部分原因是他说自己经常被误引。


微信截图_20240320105542


这个问题的频繁出现是有道理的:这个概念提出了关于人类在未来机器几乎可以在所有领域超越人类思考、学习和表现的情况下所扮演的角色和掌控力等存在主义问题。这种担忧的核心在于AGI决策过程和目标的不可预测性,这些过程和目标可能与人类价值观或优先级不一致(这一概念至少在20世纪40年代以来的科幻作品中得到了深入探讨)。有人担心,一旦AGI达到一定程度的自主性和能力,它可能会变得无法控制或限制,从而导致无法预测或逆转其行动的场景。


当哗众取宠的媒体询问时间表时,他们通常是在诱使人工智能专业人士为人类终结——或至少是当前现状的终结——设定一个时间表。不言而喻,人工智能公司的CEO们并不总是热衷于讨论这个话题。


然而,黄仁勋还是花了一些时间告诉媒体他对这个话题的看法。他认为,预测我们何时能看到一个可行的AGI取决于你如何定义AGI,并给出了一些类比:即使有时区的复杂性,你也知道新年是什么时候,也知道2025年何时到来。如果你开车去圣何塞会议中心(今年的GTC会议举办地),你通常知道你到了,因为你可以看到巨大的GTC横幅。关键点是,我们可以就如何衡量你是否到达了你想去的地方达成一致,无论是在时间上还是地理位置上。


“如果我们把AGI定义为非常具体的东西,是一系列测试,在这些测试中,一个软件程序可以做得非常好——或者比大多数人好8%——我相信我们将在5年内实现,”黄仁勋解释道。他建议,这些测试可以是法律资格考试、逻辑测试、经济测试,或者是通过医学预科考试的能力。除非提问者能够非常具体地说明在问题的背景下AGI意味着什么,否则他不愿意做出预测。这很正常。


AI幻觉是可解的


在周二的问答环节中,黄仁勋被问到如何处理AI幻觉——即一些AI倾向于编造听起来合理但并非基于事实的答案。他对这个问题显得非常沮丧,并建议通过确保答案经过深入研究来解决幻觉问题。


“添加一条规则:对于每一个答案,你都必须查找答案。”黄仁勋说,他将这种做法称为“检索增强的生成”,描述了一种与基本媒介素养非常相似的方法:检查来源和上下文。将来源中包含的事实与已知事实进行比较,如果答案在事实上不准确——哪怕是部分不准确——就放弃整个来源,转向下一个。“AI不应该只是回答问题;它应该先进行研究,以确定哪些答案是最好的。”


对于关键任务的答案,如健康建议等,英伟达CEO建议,也许检查多个资源和已知的事实来源是前进的道路。当然,这意味着创建答案的生成器需要有这样的选项,可以说:“我不知道你问题的答案”,或者“我无法就这个问题的正确答案达成共识”,甚至类似于“嘿,超级碗比赛还没发生,所以我不知道谁赢了。”

文章来源:https://techcrunch.com/2024/03/19/agi-and-hallucinations/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消