英特尔开源HE-Transformer,允许AI模型对加密数据进行操作

英特尔开源HE-Transformer,允许AI模型对加密数据进行操作数据集是AI的生命线。这对处理个人身份信息(例如医疗保健)的行业构成了挑战,但是对于匿名和加密模型训练方法方面,已经取得了令人鼓舞的进展。

今天,在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布开源HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它作为英特尔神经网络编译器nGraph的后端,基于简单加密算法库(SEAL),这个加密库是微软研究院于本周开源的。

两家公司将HE-Transformer描述为“隐私保护”机器学习的一个例子。

英特尔研究科学家Fabian Boemer和英特尔研究高级主管Casimir Wierzynski在一篇博客文章中写道,“HE允许对加密数据进行计算。当应用于机器学习时,此功能允许数据所有者获得有价值的见解,而不会暴露基础数据;它也可以使模型所有者通过加密形式部署,从而保护他们的模型。”

HE-Transformer中的“HE”是同态加密的缩写,它支持使用算法对加密的密文明文(文件内容)进行计算。它生成一个加密的结果,当解密时,该结果与在未加密文本上执行的操作的结果完全匹配。

HE是一项相对较新的技术,IBM研究员Craig Gentry在2009年开发了第一个完全的HE方案。正如Boemer和Wierzynski所说,设计使用它的AI模型不仅需要机器学习,还需要加密和软件工程方面的专业知识。

HE-Transformer可助力开发过程,通过提供可应用于开源框架(如谷歌的TensorFlow,Facebook的PyTorch和MXNet)上的神经网络的抽象层。它有效地消除了将模型手动集成到HE加密库中的需要。

HE-Transformer结合了Cheon-Kim-Kim-Song(CKKS)加密方案以及加法和乘法运算,例如加法,常数,卷积,点,乘法,否定,填充,矩阵变维,结果和减法。此外,它还支持HE特定的技术,如明文值旁路,SIMD封装,OpenMP并行化和明文操作。

由于这些优化,英特尔宣称,HE-Transformer在加密网络学习神经网络上提供了最先进的性能,可以使用TensorFlow中训练的浮点模型应用于加密数据。

微软研究院首席研究员兼密码学研究经理Kristin Lauter表示,“我们很高兴能与英特尔合作,为更广泛的数据科学家和隐私保护机器学习系统开发人员带来同态加密。”

目前,HE-Transformer直接与TensorFlow的nGraph编译器和运行时集成,并且即将支持PyTorch。此外,能够将神经网络导出到ONXX的深度学习框架,例如PyTorch,CNTK和MXNet,可以通过将模型导入ONXX中的nGraph并以序列化格式导出它们以便使用。

Boemer和Wierzynski表示,未来版本的HE-Transformer将支持更多种类的神经网络模型。“该领域的最新进展现已使HE支持深度学习。研究人员可以利用TensorFlow快速开发新的HE深度学习拓扑。”

代码:github.com/NervanaSystems/he-transformer

本文为ATYUN(www.atyun.com)编译作品,ATYUN专注人工智能
请扫码或微信搜索ATYUN订阅号及时获取最新内容

发表评论