前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >这项技术是谷歌AI的New Sexy:利于隐私、节能环保,目前最大挑战是布道阐释

这项技术是谷歌AI的New Sexy:利于隐私、节能环保,目前最大挑战是布道阐释

作者头像
量子位
发布于 2019-08-28 08:49:44
发布于 2019-08-28 08:49:44
6230
举报
文章被收录于专栏:量子位量子位
Reagan 发自 Yingke 量子位 报道 | 公众号 QbitAI

没错,正是Federated Learning,联邦学习

这种谷歌于2017年打造的机器学习新形式,在2019年成为全球AI第一大厂频频强调的潮流、方向和未来。

联邦学习究竟有何神奇之处?

这么说吧,它的关键核心是AI训练数据可以保存在终端设备,是日益严峻的隐私数据问题的解决方案之一。

也是AI向前迈步的核心突破所在——用更少的数据做更好的模型,就像人类婴孩认知世界的过程一样,很小的学习量掌握大量的知识。

在今年谷歌AI的东京座谈会上,谷歌AI掌门人Jeff Dean也专门谈到了对联邦学习的重视和看好。

最近谷歌AI杰出科学家Blaise来到亚太,同样把联邦学习挂在嘴边。

他在谷歌AI所率领的团队,目标是研究端侧AI,推进更多终端设备上的机器学习使用。

但意料之外,Blaise说目前对于联邦学习最大的挑战,是如何以最佳方式对外阐释好它。

所以,不妨完整了解下Federated Learning究竟是什么,以及为何而生。

Blaise Aguëra y Arcas

联邦学习是什么?

先从联邦学习的来龙去脉说起。

Federated Learning,也被翻译为“联合学习”——其实更能从技术上代表它的特点。

传统机器学习方法,需要把训练数据集中于某一台机器或是单个数据中心里。所以云服务巨头还建设了规模庞大的云计算基础设施,来对数据进行处理。

云端训练好模型,再推向终端应用,成为业内通行常见方法。

但这就带来了终端隐私数据的保护问题,而且一旦环节有漏洞或保护不力,隐私安全问题就很容易发生。

于是2017年,谷歌提出了完全基于移动设备数据来训练机器学习模型的方法:Federated Learning。

之所以“联合学习”更直接,是因为原理上,它能使多台智能手机以协作的形式,学习共享的预测模型。与此同时,所有的训练数据保存在终端设备。

工作原理可以分6步解释:

  • 智能手机下载当前版本的模型;
  • 通过学习本地数据来改进模型;
  • 把对模型的改进,概括成一个比较小的专门更新;
  • 该更新被加密发送到云端;
  • 与其他用户的更新即时整合,作为对共享模型的改进;
  • 所有的训练数据仍然在每名终端用户的设备中,个人更新不会在云端保存。

而且目前联邦学习的优点也非常明显:

  • 更智能的模型;
  • 低延迟;
  • 低功耗;
  • 保障用户隐私;
  • 另外,在向共享模型提供更新之外,本地的改进模型可以即时使用,这能向用户提供个性化的使用体验。

举个例子。

目前谷歌可以拿来展示的是谷歌输入法Gboard。

应用联邦学习后,当Gboard显示推荐搜索项,不论用户是否最终点击了推荐项,智能手机会在本地存储相关信息。

联邦学习会对设备历史数据进行处理,然后对Gboard检索推荐模型提出改进。

整个过程与推荐算法很像,但模型更新先在本地发生,再到云端整合。

技术挑战有哪些?

谷歌表示,实现Federated Learning有许多算法、技术上的挑战,比方说:

在典型的机器学习系统中,超大型数据集会被平均分割到云端的多个服务器上,像随机梯度下降(SGD)这样的优化算法便运行于其上。

这类反复迭代的算法,与训练数据之间需要低延迟、高吞吐量的连接。而在联邦学习的情况下,数据以非常不平均的方式分布在数百万的移动设备上。

相比之下,智能手机的延迟更高、网络吞吐量更低,并且仅可在保证用户日常使用的前提下,断断续续地进行训练。

为解决这些带宽、延迟问题,谷歌开发出一套名为Federated Averaging的算法。

相比原生的联邦学习版本随机梯度下降,该算法对训练深度神经网络的通讯要求,要低10到100倍。

谷歌的核心思路,是利用智能移动设备的强大处理器来计算出更高质量的更新,而不仅仅是优化。

做一个好模型,高质量的更新会意味着迭代次数的减少。因此,模型训练能够减少通讯需求。

由于上行速度一般比下行速度慢很多,谷歌还开发了一种比较新奇的方式,将上行通讯需求再次减少的 100 倍之多:使用随机rotation和quantization来压缩更新。

虽然这些解决方案聚焦于训练深度网络,谷歌还设计了一个针对高维稀疏convex模型的算法,特别擅长点击率预测等问题。

在数百万不同的智能手机上部署联邦学习,需要非常复杂的技术整合。

设备本地的模型训练,使用的是迷你版的 TensorFlow。非常细致的 scheduling 系统,保证只有用户手机闲置、插着电、有 Wi-Fi 时才训练模型。所以在智能手机的日常使用中,联邦学习并不会影响性能。

谷歌强调,联邦学习不会在用户体验上做任何妥协。保证了此前提,用户手机才会加入联邦学习。

然后,该系统需要以安全、高效、可扩展、可容错的方式对模型更新进行整合。

联邦学习不需要在云端存储用户数据。但为避免用户隐私泄露,谷歌更进一步,开发了一个名为Secure Aggregation、使用加密技术的协议。由于此草案,系统服务器只能够解码至少100或1000名用户参与的平均更新。在整合以前,用户的个体更新不能被查看。

这是世界上第一个此类协议,对于深度网络层级的问题以及现实通讯瓶颈具有使用价值。

谷歌表示,设计 Federated Averaging,是为了让服务器只需要整合后的更新,让 Secure Aggregation 能够派上用场。

另外,该草案具有通用潜力,能够应用于其他问题。谷歌正在加紧研发该协议产品级的应用执行。

谷歌表示,联邦学习的潜力十分巨大,现在只不过探索了它的皮毛。

但它无法用来处理所有的机器学习问题。对于许多其他模型,必需的训练数据已经存在云端 (比如训练 Gmail 的垃圾邮件过滤器)。

因此,谷歌表示会继续探索基于云计算的机器学习,但同时“下定决心”不断拓展联邦学习的功能。

目前,在谷歌输入法的搜索推荐之外,谷歌希望根据手机输入习惯改进语言模型;以及根据图片浏览数据改进图片排列。

对联邦学习进行应用,需要机器学习开发者采用新的开发工具以及全新思路——从模型开发、训练一直到模型评估。

最大挑战是认知

最后,谷歌AI杰出科学家Blaise也强调,联邦学习目前的最大挑战,其实更多在于认知:如何把这个技术向大众解释清楚,并且让更多人参与其中。

而且5G等基础设施普及,会加快带宽和数据传输速度,但对联邦学习并不“有利”。

因为这容易让人们忽略数据留在终端的重要意义。

我个人的想法信念,就是我们应该尽量地在数据所在,产生和存储的这个地方来进行做人工智能,而不是把大量的数据传出去。

Blaise说,这不光是隐私的问题,还有生态环保的问题。

因为数据的传输消耗大量的能源,如果规模数量庞大的设备都能完成体系内的数据存储和训练,对于降低能耗也助益良多。

总之,这位谷歌AI杰出科学家鼓励AI从业者多用、多关注,并找到更好布道的方式方法。

至于怎么用起来?↓↓↓

传送门

今年3月,谷歌也推出了TensorFlow Federated (TFF)开源框架,用于对分散式数据进行机器学习和其他计算。

开发者可以利用借助 TFF 对其模型和数据模拟所包含的联合学习算法,以及实验新算法。

TFF提供的构建块也可用于实现非学习计算,例如对分散式数据进行聚合分析。

借助TFF,开发者能够以声明方式表达联合计算,从而将它们部署到不同的运行时环境中。

TFF包含一个用于实验的单机模拟运行时。相关教程如下,感兴趣的话现在就能亲自试用!

GitHub:

https://github.com/tensorflow/federated/blob/v0.7.0/docs/tutorials/federated_learning_for_image_classification.ipynb

FL API链接:

https://www.tensorflow.org/federated/federated_learning

FC API:

https://www.tensorflow.org/federated/federated_core

教程:

https://www.tensorflow.org/federated/tutorials/federated_learning_for_image_classification

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-08-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
谷歌推出“Federated Learning”,一种全新的机器学习模式
传统机器学习方法,需要把训练数据集中于某一台机器或是单个数据中心里。谷歌等云服务巨头还建设了规模庞大的云计算基础设施,来对数据进行处理。现在,为利用移动设备上的人机交互来训练模型,谷歌发明了一个新名词——Federated Learning。 谷歌表示,这会是机器学习的另一大未来发展方向。 那么,什么是 Federated Learning? 它意为“联合学习”——能使多台智能手机以协作的形式,学习共享的预测模型。与此同时,所有的训练数据保存在终端设备。这意味着在 Federated Learning 的方
BestSDK
2018/02/28
1.8K0
谷歌推出“Federated Learning”,一种全新的机器学习模式
手机里跑个 AI 模型 | 谷歌 Federated Learning 联盟学习
各位数据大咖,还记得自己的跑模型的心路历程么?我想大家都在经历着下面的一个或多个阶段: 论文答辩前夕,把自己敲进去的三千多条数据放进SAS中,哗的一下模型出来了,兴奋不已,感觉前途一片光明; 将数据库中几G的本地数据导入SAS中,点击运行,机器轰然作响,几秒的时间模型出来了,感觉自己离CEO又进了一步。 在服务器上跑数据,一天过去,结果出来了,发现代码敲错了一个地方,CAO,再等一天吧。 在分布式集群上跑数据,稍微酷炫一点的模型,就要耗时三五天,因为数据量实在太大了。 数据分析师在进阶,工具在进阶,但数据
数说君
2018/03/28
1.8K0
手机里跑个 AI 模型 | 谷歌 Federated Learning 联盟学习
让数百万台手机训练同一个模型?Google把这套框架开源了
【导语】据了解,全球有 30 亿台智能手机和 70 亿台边缘设备。每天,这些电话与设备之间的交互不断产生新的数据。传统的数据分析和机器学习模式,都需要在处理数据之前集中收集数据至服务器,然后进行机器学习训练并得到模型参数,最终获得更好的产品。
AI科技大本营
2019/03/19
2.3K0
让数百万台手机训练同一个模型?Google把这套框架开源了
重磅发布2.0 Alpha版,TensorFlow新定位:端到端开源机器学习平台
自 2015 年开源以来,TensorFlow 得到了越来越多开发者的认可,成为了当前最受欢迎的深度学习框架之一。据现场介绍,目前为止 TensorFlow 已经被下载超过 4100 万次、提交 5 万多次代码更新、1800 多位贡献者。
机器之心
2019/03/15
9880
重磅发布2.0 Alpha版,TensorFlow新定位:端到端开源机器学习平台
CCAI 演讲回顾 | 杨强:GDPR对AI的挑战和基于联邦迁移学习的对策
2019年中国人工智能大会(Chinese Congress on Artificial Intelligence 2019,简称“CCAI 2019”)将于9月21日-22日在青岛胶州召开。
马上科普尚尚
2020/05/13
6720
CCAI 演讲回顾 | 杨强:GDPR对AI的挑战和基于联邦迁移学习的对策
谷歌推出“联合学习”,上千万手机协同训练一个共享神经网络模型
【新智元导读】Google Research博客今日更新,介绍了他们的一项新工作“联合学习”(Federated Learning)。这种新的方法不将训练数据集中在一处,而是利用分散在成百上千万用户手里的多台手机,协同训练机器学习模型,而且所有的训练数据都保留在原来各自的设备上。联合学习能够提升模型质量,降低延迟、减少功耗,同时确保隐私。 标准的机器学习方法需要将训练数据集中到一台机器或者一个数据中心里。现在对于那些用户使用移动设备交互时训练出来的模型,我们引入了一种额外的方法:联合学习。 联合学习使手机能
新智元
2018/03/28
3.9K0
谷歌推出“联合学习”,上千万手机协同训练一个共享神经网络模型
业界 | TensorFlow 2.0 Alpha 版来了!吴恩达配套课程同步上线
AI 科技评论按:3 月 7 日凌晨,谷歌 TensorFlow 开发者峰会(TensorFlow Dev Summit 2019)在美国加州举行。自今年 1 月份谷歌放出 TensorFlow 2.0 开发者预览版,开发者们如今终于迎来了万众期待的 TensorFlow 2.0 Alpha 版的正式发布。也许是为了呼应谷歌此前将 TensorFlow 2.0 称作重要的「里程碑」,TensorFlow 的 Logo 也从过去的三维积木状变成了扁平化风格的「T」和「F」字母拼接。
AI研习社
2019/05/08
1.1K0
业界 | TensorFlow 2.0 Alpha 版来了!吴恩达配套课程同步上线
联邦学习技术发展研究及政策建议——《网络安全技术和产业动态》总第14期
联邦学习(Federated Learning,FL)又名为联邦机器学习(Federated Machine Learning),是一种具有隐私和敏感数据保护能力的分布式机器学习技术。在联邦学习技术的应用中,有两个及以上的参与方,各个参与方之间不直接共享原始数据,而是通过安全的算法协议实现“数据不出本地域”的联合机器学习建模、训练以及模型预测。
绿盟科技研究通讯
2021/11/10
9770
联邦学习简介
谷歌于2017年提出联邦学习的训练方法,发表了相关博客链接[1],从[1]这篇文章的标题《Federated Learning: Collaborative Machine Learning without Centralized Training Data》可以看出来谷歌对于联邦学习的基本定义是,无需通过中心化的数据,即可训练一个机器学习模型。
段清华DEAN
2020/08/10
1.4K0
联邦学习简介
高效终端设备视觉系统开发与优化
大家好,我是来自Google Research的高级软件工程师汪启扉,首先感谢LiveVideoStack邀请我在此处演讲。今天,我的主题是高效终端设备机器学习的最新进展 。
LiveVideoStack
2021/03/02
7020
高效终端设备视觉系统开发与优化
Google新推联合学习:让手机共享一个模型,数据存在本地
王新民 编译自 Google Research Blog 量子位 报道 | 公众号 QbitAI 传统的机器学习方法需要将训练数据集中到一台机器或一个数据中心里,Google已经有强大的云端服务器设备,来对这些数据进行处理。现在,为了训练用户与移动设备进行互动的定制模型,Google又引入了一种新方法:联合学习(Federated Learning)。 联合学习能够在所有训练数据都保存在移动设备本地的情况下,让手机能够同时学习一个共享的预测模型。这种方法让机器学习的训练过程不再需要将数据存储到云端。 本地模
量子位
2018/03/22
1.4K0
Google新推联合学习:让手机共享一个模型,数据存在本地
TensorFlow换logo发布2.0版,携手吴恩达等推两门训练课程
今天凌晨,TensorFlow开发者峰会(TensorFlow Dev Summit 2019)在美国加州桑尼维尔市Google Event Center举行,此次峰会是第三届,据媒体称这次的规模比前两次都要大。
大数据文摘
2019/03/18
1.2K0
TensorFlow换logo发布2.0版,携手吴恩达等推两门训练课程
笔记︱联邦学习与隐私计算的案例集锦(一)
Federated Learning - 联邦学习 参考文献: 小白也能通俗易懂的联邦学习! 关于联邦学习建模过程中算法交互内容的研究
悟乙己
2022/06/06
3.8K1
笔记︱联邦学习与隐私计算的案例集锦(一)
从Pixel 3a到Android Q,一份谷歌AI能力的“成绩单” | Google I/O全程回顾
当地时间 5 月 7 日上午(北京时间 5 月 8 日凌晨一点),一年一度的 Google I/O 开发者大会如期而至。今年也是 Google 旗帜鲜明推行 “AI First” 战略的第四个年头。
AI科技大本营
2019/05/15
7200
从Pixel 3a到Android Q,一份谷歌AI能力的“成绩单” | Google I/O全程回顾
腾讯 AngelFL 联邦学习平台揭秘
作者:AI前线 数据里蕴含着价值。在人工智能时代,机器学习尤其深度学习模型的获得需要大量的训练数据作为前提。但是在很多业务场景中,模型的训练数据往往分散在各个不同的业务团队、部门、甚至是不同的公司内的。由于用户隐私,这些数据无法直接使用,形成了所谓的“数据孤岛”。近两年,联邦学习技术 (Federated Learning)迅速发展,为跨团队数据合作,打破“数据孤岛”提供了新的解决思路,并开始从理论研究迈向批量应用的落地阶段。本文系统的介绍了联邦学习的发展历程以及业界情况,并重点介绍了TEG数据平台
腾讯技术工程官方号
2020/03/19
3.7K0
什么是Federated Learning(联邦学习)?
federated learning是一种训练数据去中心化的机器学习解决方案,最早于2016年由谷歌公司提出,目的在于通过对保存在大量终端的分布式数据开展训练学习一个高质量中心化的机器学习模型,解决数据孤岛的问题。
enenbobu
2019/08/18
11.9K0
什么是Federated Learning(联邦学习)?
Tensorflow Federated Framework 谷歌联邦学习框架
联邦学习是谷歌在2016年提出的概念:在分布式的场景下,训练数据分别保存在每个clients中,希望提出一种训练方法:跨多个参与客户端(clients)训练一个共享的全局模型。其中的重点关注的问题包括:
zhangjiqun
2024/12/14
1530
Tensorflow Federated Framework 谷歌联邦学习框架
学界 | 谷歌提出协同机器学习:通过分散的手机更新同一个云端模型
选自Google Blog 作者:Brendan McMahan、Daniel Ramage 机器之心编译 参与:微胖、韩天哲 标准的机器学习方法要求在一个机器或者数据中心集中训练数据。谷歌已经打造出用于数据处理的最安全、最强健的云基础架构之一。现在,为了通过用户与移动设备交互来训练模型,我们推出了另一种办法:联合学习(federated learning)。 联合学习可以让移动手机协同(collaboratively)学习一个共享的预测模型,与此同时所有训练数据仍保留在设备上,将机器学习与数据储存在云端的
机器之心
2018/05/07
8450
学界 | 谷歌提出协同机器学习:通过分散的手机更新同一个云端模型
UbiComp 2022 | 网络丢包对联邦学习影响很大?中科大数据研究中心团队成果!
近日,中国科学技术大学数据空间研究中心智能网络计算研究组近期于普适计算领域顶级会议ACM UbiComp 2022发表论文《面向穿戴设备的公平高效联邦学习算法及应用》。 该论文提出的公平高效联邦学习方案FCFL是一个专门为可穿戴设备设计的全栈式学习系统,在通信效率、公平性、个性化和用户体验方面大大改善了联邦学习的性能。 论文链接:https://www.researchgate.net/publication/359935483 Demo APP 代码链接:https://github.com/Open
AI科技评论
2022/05/07
9480
UbiComp 2022 | 网络丢包对联邦学习影响很大?中科大数据研究中心团队成果!
阿里达摩院开源新框架:入局隐私保护计算,解决异构异步难题,联邦学习迎来重磅玩家
明敏 梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 没人愿意随便交出自己的隐私。 当苹果正式推出“应用跟踪透明度”隐私保护功能时,只有16%的用户选择了允许App跟踪自己的活动。 但正如苹果提示所说,有时又不得不用隐私数据来交换便利和服务质量。 于是一年后的今天,据Adjust数据分析公司统计,这一数字又回升到25%。 也就是说,更多的用户重新认可了接收个性化内容对自己的价值。 究竟有没有方法能做到两全其美,让互联网平台在严格保障用户隐私的前提下,仍为用户提供优质的服务? 还真有。 当下最主流的一
量子位
2022/05/06
5270
阿里达摩院开源新框架:入局隐私保护计算,解决异构异步难题,联邦学习迎来重磅玩家
推荐阅读
谷歌推出“Federated Learning”,一种全新的机器学习模式
1.8K0
手机里跑个 AI 模型 | 谷歌 Federated Learning 联盟学习
1.8K0
让数百万台手机训练同一个模型?Google把这套框架开源了
2.3K0
重磅发布2.0 Alpha版,TensorFlow新定位:端到端开源机器学习平台
9880
CCAI 演讲回顾 | 杨强:GDPR对AI的挑战和基于联邦迁移学习的对策
6720
谷歌推出“联合学习”,上千万手机协同训练一个共享神经网络模型
3.9K0
业界 | TensorFlow 2.0 Alpha 版来了!吴恩达配套课程同步上线
1.1K0
联邦学习技术发展研究及政策建议——《网络安全技术和产业动态》总第14期
9770
联邦学习简介
1.4K0
高效终端设备视觉系统开发与优化
7020
Google新推联合学习:让手机共享一个模型,数据存在本地
1.4K0
TensorFlow换logo发布2.0版,携手吴恩达等推两门训练课程
1.2K0
笔记︱联邦学习与隐私计算的案例集锦(一)
3.8K1
从Pixel 3a到Android Q,一份谷歌AI能力的“成绩单” | Google I/O全程回顾
7200
腾讯 AngelFL 联邦学习平台揭秘
3.7K0
什么是Federated Learning(联邦学习)?
11.9K0
Tensorflow Federated Framework 谷歌联邦学习框架
1530
学界 | 谷歌提出协同机器学习:通过分散的手机更新同一个云端模型
8450
UbiComp 2022 | 网络丢包对联邦学习影响很大?中科大数据研究中心团队成果!
9480
阿里达摩院开源新框架:入局隐私保护计算,解决异构异步难题,联邦学习迎来重磅玩家
5270
相关推荐
谷歌推出“Federated Learning”,一种全新的机器学习模式
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文