苹果在周一的2025年全球开发者大会主题演讲中,通过全面更新其设备操作系统和引人注目的新设计来结束。但尽管iPhone、iPad、Mac、Apple Watch和Vision Pro都有所改进,一个问题仍然存在:苹果智能的进展如何?
当苹果大力推进AI时推出在2024年全球开发者大会上,CEO蒂姆·库克将其描述为公司的一个新篇章,结合了苹果的硬件和生成式AI的增长势头。苹果智能旨在将公司置于与OpenAI、Nvidia、Google和Microsoft同等的地位。
一年后,这一承诺在很大程度上仍然未实现,并引发了行业范围的批评以及公司内部的动荡。
事实上,其对AI领域最显著的影响可能是上周发布的一篇研究论文题为《思维的幻觉》,公司在其中概述了大型语言模型的局限性,并警告不要高估其推理能力。论文强调,尽管LLM看似智能,但它们主要依赖于模式识别。
尽管如此,今天的会议由苹果软件工程高级副总裁克雷格·费德里吉宣布其AI集成:“我们正在使推动苹果智能的生成模型更强大、更高效,并继续在我们的生态系统中更多地方利用苹果智能,”他说。
费德里吉宣布苹果正在向开发者开放其AI基础设施,通过一个新的“基础模型框架”,允许应用程序直接利用推动苹果自身软件的同一设备内智能。Xcode的更新为开发者引入了生成工具,包括与ChatGPT的集成、预测代码完成和通过Swift Assist进行的对话式编程。
也许苹果在苹果智能推出的失败后,希望通过低调承诺来超出预期。
相反,今天的演示更多地关注于OS X和iOS的全面视觉重新设计,使苹果整个产品套件的用户体验更加一致。重新设计的特点是“Liquid Glass”——一种响应式、上下文感知的设计元素,能够根据设备的触摸、内容和上下文进行调整。重新设计影响了从锁屏到系统图标的所有内容,旨在使苹果设备之间的过渡更加无缝。
在全球开发者大会上揭示的其他更新包括对Messages的增强,现在支持投票、自定义背景、打字指示器、群组支付和改进的垃圾信息过滤。实时翻译功能使得在Messages、FaceTime和电话中使用AI进行实时语言翻译成为可能。
电话应用程序正在接收升级,包括Hold Assist——一种通过待机模式对抗被搁置的方法,当您试图联系的人终于接听时会提醒您——以及来电筛选,提示来电者在连接前自我介绍。值得注意的是,该功能在2009年Google Voice推出时就已存在。
其他更新包括:
苹果表示,这些更新将在7月提供公开测试版,完整版本将在秋季发布。