苹果A12 Bionic芯片运行Core ML应用程序的速度提高了9倍

2018年09月13日 由 浅浅 发表 892300 0


苹果在AI方面投入巨资。全新iPhone Xs和iPhone Xs Max搭载A12 Bionic,这是一款7纳米芯片,Apple称其为“有史以来最强大的芯片”。

这一芯片包含六个内核(两个性能内核和四个高功率内核),一个四核GPU和一个神经引擎(一个八核专用机器学习处理器,从A11中的双核处理器)可以每秒执行5万亿次运算(相比之下,先前一代神经引擎为5亿次)。另外还有一个智能计算系统,它可以自动确定是在处理器,GPU,神经引擎还是三者的组合上运行算法。

使用苹果的机器学习框架Core ML 2创建的应用程序可以在A12仿生硅上以十分之一的功率快速增加数字。这些应用程序的启动速度也提高了30%,这要归功于随着时间推移了解你的使用习惯的算法。

由新硬件支持的实时机器学习功能包括Siri Shortcuts,它允许用户通过自定义Siri短语创建和运行应用程序宏;Memoji,一个新版的表情符号,可以定制;面部识别;苹果的增强现实工具包,ARKit 2.0。

这个消息紧随苹果今年夏天的Core ML 2发布之后。

苹果公司在6月的全球开发者大会上表示,Core ML 2的速度提高了30%,这要归功于一种称为批量预测的技术。此外,苹果示该工具包可以让开发人员通过量化将受过训练的机器学习模型的大小缩小75%。

苹果于2017年6月与iOS 11一起推出了Core ML。它允许开发人员将设备上的机器学习模型加载到iPhone或iPad上,或者从XGBoost,Keras,LibSVM,scikit-learn和Facebook的Caffe和Caffe2等框架转换模型。Core ML旨在优化功率效率模型,并且不需要互联网连接即可获得机器学习模型的优势。

Core ML的更新消息紧随ML Kit,这是谷歌在5月份的I / O 2018开发者大会上宣布的用于Android和iOS的机器学习软件开发套件。2017年12月,谷歌发布了一款工具,将使用其机器学习框架TensorFlow Lite生成的AI模型转换为与苹果的Core ML兼容的文件类型。

Core ML有望在Apple未来的硬件产品中发挥关键作用。

苹果聘请了前Google工程师John Giannandrea,负责监督Gmail,Google搜索和Google智能助理等人工智能支持功能的实施,以领导其机器学习和AI战略。它希望雇佣150多名员工为其Siri团队提供服务。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消