火星科技网您的位置:首页 >科技新闻 >

联合学习如何在隐藏隐私的世界中塑造人工智能的未来

导读 你可能没有注意到,但是世界上最受欢迎的两个机器学习框架--TensorFlow和PyTorch--最近几个月采用了包含联合学习的解决方案来实现隐私。联

你可能没有注意到,但是世界上最受欢迎的两个机器学习框架--TensorFlow和PyTorch--最近几个月采用了包含联合学习的解决方案来实现隐私。

联合学习不是从用户那里收集数据来训练数据集,而是大批量地在移动设备上训练AI模型,然后将这些学习转移回全局模型,而不需要数据离开设备。

作为Facebook上个月流行的深度学习框架PyTorch的最新版本的一部分,该公司的AI研究小组推出了Secure and Private AI,这是一个免费的为期两个月的Udacity课程,讲授使用加密计算,差异隐私和联邦学习等方法。第一门课程于上周开始,由Google的DeepMind高级研究科学家Andrew Trask教授。他还是Openmined的领导者,Openmined是一个以隐私为重点的开源AI社区,该社区在3月份发布了PySyft,将PyTorch和联合学习结合在一起。

“这不仅仅是Facebook,我认为[AI]领域一般都非常认真地看待这个方向,”PyTorch创始人Soumith Chintala在采访中告诉VentureBeat。“是的,我认为你绝对会看到更多的努力,更多的方向,[和]更多的包装,无论是在PyTorch还是其他方面,都肯定会朝着这个方向前进。”

随着隐私成为一个卖点,联邦学习有望在技术巨头和需要隐私保护的行业(如医疗保健)中越来越受欢迎。

在AI中建立隐私

根据arXiv的数据,谷歌人工智能研究人员于2017年首次引入了联邦学习,从那时起,研究科学家就引用了300多次联合学习。今年3月,Google发布了TensorFlow Federated,通过其流行的机器学习框架,使联合学习更容易实现。

在2019年5月举行的Google I / O大会上,首席执行官Sundar Pichai谈到了联邦学习,这是他向全世界宣传Google认真对待所有人隐私的一部分,以及谷歌地图中的隐身模式和使用Android手机等功能。用于两步验证的安全密钥。借助设备上的机器学习,速度的提升也将使Google智能助理在未来几个月内的速度提高10倍。

早在2017年,Android设备键盘Gboard开始使用联合学习来学习用户的新单词并预测下一个单词或表情符号。

“现在还很早,但我们对更多产品的联合学习的进展和潜力感到兴奋,”Pichai在2019年的主题演讲中表示。

除了为Android用户提供更智能的键盘之外,谷歌正在探索使用联邦学习来提高安全性,谷歌负责人的账户安全Mark Risher在最近的一次电话采访中告诉VentureBeat AI工作人员Kyle Wiggers。Risher表示,联合学习将使恶意第三方能够对设备上的反网络钓鱼安全模型进行测试,因此它还不太适合安全性,但他们正朝着这个目标努力。

然而,联合学习仍面临挑战,包括无法检查培训示例,带宽问题以及对WiFi连接的需求,以及从用户交互中自然推断标签。

为何联合学习可以改善隐私

谷歌人工智能研究员Brendan McMahan在2018年的一次演讲中表示,从设备发送的更新仍然可能包含一些个人数据或告诉你一个人,因此差异隐私用于为设备共享的数据添加高斯噪声。

他说,将模型培训和预测分发到设备而不是在云中共享数据也可以节省电池和带宽,因为你必须在Wi-Fi上下载模型。

例如,联合学习的使用导致为计算机视觉获得合理准确的CIFAR卷积神经网络所需的通信轮次数减少50倍。

McMahan说,在聚合中查看事物意味着服务器不需要来自设备的大量数据。

“事实上,所有服务器真正需要知道的是更新的平均值或这些更新的总和。它并不关心任何个人更新,“他在演讲中说。“如果谷歌看不到那些个人更新并且只获得那些汇总,那会不会很棒?”

McMahan是2017年有影响力的研究论文的合着者,该论文向世界介绍了联邦学习。包括McMahan和Ian Goodfellow在内的Google AI研究团队也撰写了一篇被大量引用的2016年题为“深度学习与差异隐私”的论文.Boodfellow于2019年离开谷歌,担任Apple机器学习特殊项目组的主管。

2016年,谷歌在Gboard推出联邦学习和差异隐私的前一年,Apple在iOS 10中为QuickType和表情符号建议做了同样的事情。

受保护数据的应用

联邦学习掩盖数据的能力导致其在医疗保健等行业的应用得到了探索。该技术正在为一家由GV支持的公司Owkin提供动力。该平台帮助医疗专业人员进行测试和实验,以预测疾病演变和药物毒性。最近几个月,来自哈佛大学,麻省理工学院CSAIL和清华大学艺术与设计学院的人工智能研究人员设计了一种利用联邦学习分析电子病历的方法。

使用加密或受保护数据的训练模型并不是一件全新的事情。例如,微软AI研究人员在2016年将神经网络应用于其CryptoNets模型的加密数据。

然而,联合学习和提供机器智能而不收集原始数据的方法可能会越来越受欢迎,因为人们更关心隐私,更多的设备制造商转向设备上的机器学习。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。