被广泛称为“人工智能教父”的杰弗里·辛顿在一次新采访中发出了迄今为止最严厉的警告,提醒人工智能不仅对就业构成威胁,还对整个人类的生存构成风险,因为世界正竞相迈向超级智能机器。
在“CEO日记”播客中,辛顿描绘了一个未来的阴暗愿景,暗示AI最终可能会认为人类本身已经过时。
“如果它想要摆脱我们,我们是无法阻止的,”辛顿说。“我们不习惯思考比我们聪明的东西。如果你想知道当你不是顶级智慧时的生活是什么样的,问问鸡就知道了。”
辛顿表示,威胁将以两种不同的形式出现:一种是源于人类滥用的,如网络攻击、错误信息传播和自主武器的制造;另一种是源于完全自主且无法控制的AI系统。
“他们现在可以制造致命的自主武器,我认为所有的大型国防部门都在忙于制造它们,”他说。“即使它们不比人聪明,它们仍然是非常可怕、令人恐惧的东西。”
2023年5月,作为神经网络的先驱,辛顿离开了谷歌和多伦多大学,在从事人工智能工作十多年后,以便他可以自由地谈论这项技术的危险。
辛顿的警告正值人工智能在军事应用中激增之际。最近的发展突显了技术在国防行动中的快速整合,美国在资金和合作方面处于领先地位。
11月,为了增强军队的人工智能和自主武器,美国国防部在其2025年提交给国会的预算提案中请求1430亿美元用于研究和开发,其中18亿美元专门用于人工智能。那年早些时候,软件开发商Palantir获得了1.75亿美元的合同,为美国陆军开发AI驱动的目标系统。3月,五角大楼与Scale AI合作推出了一款名为Thunderforge的AI代理战场模拟器。
辛顿将当前时刻比作核武器的出现,只是AI更难控制,并且在更多领域中有用。
“原子弹只对一件事有用,而且它的工作原理非常明显,”他说。“而AI对许多许多事情都有用。”
辛顿解释说,这种企业利润动机和国际竞争的结合是AI发展不会放缓的原因。
“利润动机在说:展示任何能让他们点击的东西,而能让他们点击的东西是越来越极端的,确认他们现有的偏见,”他说。“所以你的偏见一直在被确认。”
AI会如何消灭人类?辛顿说,超级智能AI可能会设计出新的生物威胁来消灭人类。
“显而易见的方法是创造一种恶性病毒——非常具有传染性、非常致命且非常缓慢——这样每个人在意识到之前就已经感染了,”他说。“如果超级智能想要摆脱我们,它可能会选择一些对它没有影响的生物手段。”
尽管前景黯淡,辛顿并非完全没有希望。
“我们根本不知道我们是否能让它们不想接管和不想伤害我们。我不认为我们能做到这一点是明确的,所以我认为这可能是无望的,”辛顿说。“但我也认为我们可能能做到,如果人类因为我们懒得尝试而灭绝,那就有点疯狂了。”