首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >想了解风头正劲的联邦学习?这篇包含400多个参考文献的综述论文满足你

想了解风头正劲的联邦学习?这篇包含400多个参考文献的综述论文满足你

作者头像
机器之心
发布于 2020-02-12 07:16:04
发布于 2020-02-12 07:16:04
1.4K0
举报
文章被收录于专栏:机器之心机器之心

选自arXiv

作者:Peter Kairouz 等

机器之心编译

参与:魔王、杜伟

联邦学习(Federated Learning,FL)指多个客户端在一个中央服务器下协作式地训练模型的机器学习设置,该设置同时保证训练数据去中心化。联邦学习使用局部数据收集和最小化的原则,能够降低使用传统中心化机器学习和数据科学方法带来的一些系统性隐私风险和成本。近期社区对联邦学习的研究出现爆发式增长,这篇论文探讨了联邦学习的近期进展,并展示了该领域所面临的开放性问题和挑战。本论文作者来自澳大利亚国立大学、CMU、康奈尔大学、谷歌、中国香港科技大学等机构。

原论文篇幅较长,机器之心进行了摘要编译。

论文链接:https://arxiv.org/pdf/1912.04977.pdf

引言

联邦学习指多个客户端(如移动设备或整个组织)在一个中央服务器(如服务提供商)下协作式地训练模型的机器学习设置,该设置同时保证训练数据去中心化。联邦学习使用局部数据收集和最小化原则,降低传统中心化机器学习方法带来的一些系统性隐私风险和成本。

近期该领域在研究和应用层面都受到了极大关注。这篇论文将介绍联邦学习的定义性特征和面临的挑战,重点介绍重要的实践局限和考量因素,并列举大量珍贵的研究方向。本论文旨在提出具备重大理论和实践意义的研究问题,鼓励大家对这些问题展开研究,进而为现实世界带来巨大影响。

联邦学习这一术语由 McMahan 等人在 2016 年首次提出:「我们将该方法命名为联邦学习,因为该学习任务是由多个参与设备(即客户端)的松散联邦在中央服务器的协调下解决的。」在大量通信带宽有限的不可靠设备上对不平衡和非独立同分布(non-IID)数据执行分割,这被认为是联邦学习面临的核心挑战。

谷歌研究科学家 H. Brendan McMahan。

在「联邦学习」这一术语问世之前,已经出现大量相关研究工作。很多研究社区(包括密码学、数据库和机器学习)追寻的长期目标是:在不暴露数据的前提下,分析和学习分布于多个数据拥有者的数据。计算加密数据的加密方法最早出现于 20 世纪 80 年代早期,Agrawal 和 Srikant [15] 以及 Vaidya 等人 [390] 是使用中央服务器学习本地数据同时保护隐私的早期研究。

然而,即使在「联邦学习」这一术语出现以后,我们仍然发现没有一项研究能够直接解决联邦学习面临的全部挑战。因此,「联邦学习」这一术语简洁地描述了基于去中心化数据(这些数据具备极高的隐私性)的应用机器学习问题的特点、局限和挑战。

联邦学习的发展在于各学科的合作

2019 年 6 月 17-18 日,在谷歌的西雅图办公室举办了一场关于联邦学习的研讨会,本论文基于这次研讨会写就。在为期两天的研讨会中,对调研联邦学习领域众多开放性挑战的综述论文的需求逐渐变得明晰。

研讨会上讨论的很多问题都有一个核心特性:它们本质上是跨学科的。解决这些问题不仅需要机器学习,还需要分布式优化、加密学、安全、差分隐私、公平性、压缩感知、系统、信息论、统计学等学科的技术。最难的问题出现在这些学科的交叉领域,因此本论文认为合作是促进联邦学习领域发展的必经之路。本论文的目标之一是:强调结合这些领域技术的方式,带来有趣的可能性和新的挑战。

「联邦学习」这一术语刚出现时强调移动和边缘设备应用,现在人们对将联邦学习应用到其他应用的兴趣显著增长,包括一些涉及少量相对可靠客户端的应用,如多个组织合作训练一个模型。研究者将这两种联邦学习设置分别称作「跨设备」(cross-device)和「cross-silo」。基于这些变体,本论文对联邦学习给出了一个更宽泛的定义:

联邦学习是多个实体(客户端)协作解决机器学习问题的机器学习设置,它在一个中央服务器或服务提供商的协调下进行。每个客户端的原始数据存储在本地,无法交换或迁移,联邦学习利用局部更新(用于立即聚合 (immediate aggregation))来实现学习目标。

局部更新(focused update)是仅限于包含特定学习任务最少必需信息的更新。聚合应在数据最小化服务中尽可能早地执行。我们注意到,该定义将联邦学习与完全去中心化的(peer-to-peer)学习技术区分开来。

跨设备 FL、Cross-Silo FL 和传统单数据中心分布式学习

关于保护隐私的数据分析,这方面的研究已经进行了 50 余年,但在最近十年才出现可以大规模部署的解决方案。现在,跨设备联邦学习和联邦数据分析已经在消费者数字产品中得到应用。谷歌在 Gboard 移动键盘、Pixel 手机功能和 Android Messages 中广泛使用联邦学习。谷歌在跨设备联邦学习领域遥遥领先,但目前更广泛的群体对该领域产生了兴趣,例如:苹果在 iOS 13 系统中使用跨设备联邦学习,如 QuickType 键盘和「Hey Siri」的人声分类器等应用;doc.ai 正在开发适合医疗研究的跨设备联邦学习解决方案;Snips 探索针对热词检测的跨设备联邦学习。

cross-silo 应用也在多个领域出现,包括再保险业务中的金融风险预测、药物研发、电子病历挖掘、医疗数据分割和智能制造。

对联邦学习技术不断增长的需求带来了大量可用的工具和框架,包括 TensorFlow Federated [38]、Federated AI Technology Enabler [34]、PySyft [342]、Leaf [35]、PaddleFL [36] 和 Clara 训练框架 [33](详情参见附录 A)。大型科技企业和小型创业公司都在打造囊括联邦学习技术的商业数据平台。

下表 1 从多个维度对比了跨设备联邦学习、cross-silo 联邦学习和传统的单数据中心分布式学习。这些特征构建了联邦学习实际系统必须满足的一些约束,从而促进联邦学习的发展,找到其面临的开放性挑战。

表 1:联邦学习 vs. 单数据中心分布式学习的典型特征。跨设备和 cross-silo 联邦学习是 FL 领域的两个分支,但并非全部。该表将联邦学习的主要定义性特征用粗体字着重显示,不过其他特征对确定哪种技术可用也很关键。

这两种联邦学习变体是联邦学习领域中的代表性和重要示例,而不同的联邦学习设置可能具备不同的特征组合。除特别注明,本论文剩余内容主要考虑跨设备联邦学习设置,不过其中的一些问题也适用于其他联邦学习设置。本文第 2 章介绍了联邦学习的其他变体及应用。

接下来,我们来更详尽地探讨跨设备联邦学习,主要从典型大规模部署这一实践层面出发。Bonawitz 等人 [74] 对特定生产系统提供了更加详尽的介绍,包括对特定架构的选择和考量。

跨设备联邦学习设置

本章从应用角度出发,介绍跨设备联邦学习中出现的一些实际问题,以及如何将它们融入到更宽泛的机器学习开发和生态系统部署中。希望本章能够为下文介绍联邦学习的开放性问题提供有用的语境和动机,同时帮助研究人员估计在现实系统中直接部署特定新方法的可行性。在探讨联邦学习训练流程之前,我们先来看模型的生命周期。

联邦学习中的模型生命周期

联邦学习通常由为特定应用开发模型的模型工程师来驱动。例如,自然语言处理工程师可能为虚拟键盘开发「下一个单词预测模型」。下图 1 展示了其主要组件和参与者:

图 1:联邦学习训练模型的生命周期,以及联邦学习系统中的多个参与者。第 4 章将从威胁模型的角度再次介绍该图。

整体来看,其典型工作流程如下所示:

  1. 问题识别:模型工程师找出要使用联邦学习解决的问题;
  2. 客户端设置:如有需要,将客户端(如在手机上运行的 app)设置为在本地存储必要的训练数据(尽管时间和数量都存在限制)。在很多案例中,app 已经存储了数据(如文本短信 app 必须存储文本信息,照片管理 app 存储照片)。但是,在另一些案例中,还需要保留额外的数据或元数据,如用户交互数据,以为监督学习任务提供标签;
  3. 模拟原型开发(可选):模型工程师可能为模型架构开发原型,并用代理数据集(proxy dataset)在联邦学习模拟环境中测试学习超参数;
  4. 联邦模型训练:启动多个联邦训练任务来训练模型的不同变体,或者使用不同的优化超参数;
  5. (联邦)模型评估:在任务经过充分训练后(通常需要数天),分析模型并选择优秀的候选模型。分析可能包括在数据中心的标准数据集上计算得到的度量,或者模型在留出客户端上评估本地客户端数据的联邦评估结果;
  6. 部署:最后,在选择好模型之后,就要进入标准的模型部署流程了,该流程包括手动质量保证、实时 A/B 测试(在一些模型上使用新模型,在另一些模型上使用之前的模型,然后对比其性能)以及分阶段部署(staged rollout,这样可以在发现较差行为时及时回退,以免影响过多用户)。模型的特定安装流程由应用的所有者设置,通常独立于模型训练过程。也就是说,对使用联邦学习或传统数据中心方法训练得到的模型,都可以同样地使用该步骤。

联邦学习系统面临的主要实际挑战之一是:尽可能简化上述工作流程,使其完美靠拢使用中心化训练方式得到的易用机器学习系统。尽管本论文主要关注联邦学习,但也会涉及其他组件,包括模型评估和 debug 等联邦分析任务。接下来,我们将详细介绍整个联邦学习模型的训练过程(即上述步骤的第 4 步)。

典型的联邦训练流程

现在,我们考虑联邦学习训练的模板,它包括 McMahan 等人 [289] 提出的联邦平均算法。另外,可能存在其他变体,但该算法提供了一个通用的起点。

服务器(服务提供商)部署整个训练过程,它重复以下步骤直到训练停止(这取决于监测训练流程的模型工程师):

  1. 客户端选择:服务器从一组满足要求的客户端中进行采样。例如,服务器需要确认手机是否接通电源、在无限带宽 wi-fi 连接状态还是空闲状态,以避免影响设备用户;
  2. 广播(broadcast):选中的客户端从服务器下载当前模型权重和训练程序(如 TensorFlow graph [6]);
  3. 客户端计算:每个选中的设备通过执行训练程序在本地计算模型更新,例如在本地数据上运行 SGD(就像在联邦平均算法中那样);
  4. 聚合(aggregation):服务器收集全部设备更新。为了提高效率,一旦足够多的设备报告结果,则落后者会被丢弃。这一步也是其他技术的集成点,这些技术可能包括:能够增强隐私性的安全聚合、为提高通信效率对更新聚合执行有损压缩以及差分隐私所需的噪声添加和更新裁剪(update clipping);
  5. 模型更新:基于参与当前轮次的所有客户端计算得到聚合更新,服务器基于此在本地更新共享模型。

下表 2 介绍了在典型的联邦学习移动设备应用场景中的规模量级:

表 2:典型跨设备联邦学习应用中的规模。

客户端计算、聚合和模型更新阶段的分离并非联邦学习的严格要求,但它确实排除了特定类别的算法,如异步 SGD(每个客户端的更新被立即应用于模型,没有聚合其他客户端的更新)。这种异步方法可简化系统设计的某些方面,从优化角度来看也是有益的(这一点存在争议)。但是,上文介绍的训练方法对于分离不同研究领域的课题具备显著优势:压缩、差分隐私和安全多方计算领域的进展有益于标准原语(如计算去中心化更新的总和或均值),这些进展由任意优化或分析算法构成,只要这些算法以聚合原语的形式表达。

这里还需要强调一点:从两个方面来讲,联邦学习训练流程不应影响用户体验。

首先,如上所述,即使模型参数通常在联邦训练每一轮的广播阶段发送到一些设备,但这些模型是训练流程中转瞬即逝的部分,并不用于创建向用户展示的「实时」预测。这一点很关键,因为训练机器学习模型很难,错误配置超参数可能导致预测效果极差的模型。用户可见的模型应用被延迟到模型生命周期中的第 6 步——部署流程;

其次,训练本身对用户是不可见的,就像在客户端选择阶段描述的那样,训练不会拖慢设备或耗电,因为它只在设备处于空闲状态以及接通电源时执行。但是,这些约束带来的有限可用场景直接导致开放性研究挑战,如半环数据获取(semi-cyclic data availability)和客户端选择的潜在偏见。

联邦学习研究

现实世界联邦学习设置包括基于来自医疗系统的医疗数据训练模型,使用数以亿计的移动设备执行训练等等。本论文剩余部分将介绍现实世界 FL 设置的局限与挑战所带来的开放性问题。更不用说,大部分研究联邦学习问题的研究者不太可能部署生产级联邦学习系统,也无法获取数百万现实世界设备。这导致实际设置和模拟实验之间存在显著区别(实际设置刺激研究,模拟实验为给定方法在现实问题中的适应性应用提供证据。)

因此,从实验角度来看,联邦学习研究与其他机器学习领域略有不同,所以在进行联邦学习研究时需要多做考虑。具体而言,在列举开放性问题时,研究者尝试指出可在模拟环境中使用的相关性能度量指标、使模型更能代表其在现实世界中性能的数据集特征等等。对模拟的需求同样对联邦学习研究的展示有所影响。

研究者对如何展示联邦学习研究提出以下几条温和的建议:

  • 如上表 1 所示,联邦学习设置涉及大量问题。与具备明确设置和目标的领域相比,准确描述特定联邦学习设置的细节非常重要,尤其是当提出方法做出的假设不适用于所有设置时(如参与所有轮的有状态客户端);
  • 当然,任何模拟的细节都应得到展示,以便研究可复现。但是,说明模拟要捕捉现实世界的哪些方面也很重要,这样才能使在模拟问题上成功的方法也能成功用于现实世界目标,并取得进展;
  • 隐私和通信效率通常是联邦学习中的首要考虑因素,即使实验是使用公开数据在单个机器上运行的模拟实验。联邦学习在这方面更胜其他机器学习类型,因为对于提出的任何方法,明确计算发生地和通信内容都是十分重要的。

用于联邦学习模拟的软件库和标准数据集有助于减轻实施高效联邦学习研究的挑战,附录 A 总结了目前可用的部分软件库和数据集。针对不同的联邦学习设置(跨设备和 cross-silo)开发标准评估度量指标和构建标准基准数据集,仍然是未来工作的重要方向。

论文剩余章节内容概览

由于本篇论文篇幅较长,剩余章节仅截取目录内容,读者可自行前往原文查看详细内容。

本论文第 2 章基于上表 1 展开,探讨跨设备设置以外的其他联邦学习设置和问题。

第 3 章重新聚焦如何提高联邦学习效率和效用这一核心问题。

本章探讨多种使联邦学习更加高效的技术和开放性问题,包括多种可能的方法,如:开发更好的优化算法,为不同客户端提供不同模型,使超参数搜索、架构搜索和 debug 等机器学习任务在联邦学习环境中更加容易,提升通信效率等等。

第 4 章涉及威胁模型,以及实现严格隐私保护这一目标所需的大量技术。

和所有机器学习系统一样,联邦学习应用中也存在一些操控模型训练的因素,一些失败是不可避免的,第 5 章将讨论这些内容。

第 6 章解决了提供公平且无偏差模型所面临的重要挑战。

第 7 章结束语。

参考阅读:打破数据孤岛:联邦学习近期重要研究进展

本文为机器之心编译,转载请联系本公众号获得授权。

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
联邦学习最新研究趋势!
联邦学习无疑是近期 AI 界最火爆的技术范式之一,在过去的2019年,涌现了大量联邦学习相关研究。
AI科技评论
2020/03/16
1.9K0
联邦学习最新研究趋势!
2.5亿美元资助500个项目,美国国家科学基金会CAREER奖深度解读
机器之心分析师网络 作者:Jiying 编辑:H4O 本文对 NSF CISE CAREER 2022 年公开资助的一项与联邦学习相关的项目进行了分析,结合 PI 的相关研究背景,了解美国青年研究学者在该方面开展的研究工作。 美国国家科学基金会(National Science Foundation,NSF)是美国独立的联邦机构,由美国国会于 1950 年创建。NSF 的任务是通过对基础科学研究计划的资助,改进科学教育,发展科学信息和增进国际科学合作等办法促进美国科学的发展。NSF 包括以下七个方向:生物科
机器之心
2022/09/26
1.1K0
2.5亿美元资助500个项目,美国国家科学基金会CAREER奖深度解读
Science China|用增强的联邦学习应对药物发现数据小和偏的困境
2021年7月27日,中科院上海药物所蒋华良和郑明月课题组/上海科技大学联合华为云的医疗智能体 (EIHealth) 平台,在SCIENCE CHINA Life Sciences发表了题为Facing small and biased data dilemma in drug discovery with enhanced federated learning approaches的文章。
智药邦
2021/08/06
5770
KBS 2021 | 联邦学习综述
论文地址:https://www.sciencedirect.com/science/article/abs/pii/S0950705121000381
Cyril-KI
2022/11/08
9210
KBS 2021 | 联邦学习综述
隐私计算中的联邦学习
数据资产已经成为产品和服务设计的关键工具,但是集中采集用户数据会使个人隐私面临风险,进而使组织面临法律风险。从2016年开始,人们开始探索如何在用户隐私保护下使用数据的所有权和来源,这使得联邦学习和联邦分析成为关注的热点。随着研究范围的不断扩大,联邦学习已经开始应用到物联网等更广泛的领域。
半吊子全栈工匠
2022/12/03
1.2K0
隐私计算中的联邦学习
如何实现高效联邦学习?跨终端、硬件加速等方案全都有
随着人类社会数字化进程的加快,由此产生了大量的数据,通过机器学习技术可以自动化地挖掘数据中蕴藏的宝藏,基于数据训练完成的模型已经应用在各类场景中。 然而由于数据隐私安全上的约束,研究者往往无法直接使用数据,联邦学习的诞生便是为了解决这一问题。其本质上是一种分布式机器学习框架,做到了在保障数据隐私安全及合法合规的基础上,实现数据共享,共同建模。 随着技术的发展,研究者一方面对联邦学习的应用越来越成熟,另一方面在应用中面临的问题也越来越复杂。例如如何构建一个可以高效部署、可扩展的联邦学习系统?在实践中,我们能否
机器之心
2023/03/29
6740
如何实现高效联邦学习?跨终端、硬件加速等方案全都有
一文综述「联邦图机器学习」,概念、技术、应用全都有
机器之心报道 机器之心编辑部 一文总结联邦图机器学习。 近年来,图已被广泛应用于表示和处理很多领域的复杂数据,如医疗、交通运输、生物信息学和推荐系统等。图机器学习技术是获取隐匿在复杂数据中丰富信息的有力工具,并且在像节点分类和链接预测等任务中,展现出很强的性能。 尽管图机器学习技术取得了重大进展,但大多数都需要把图数据集中存储在单机上。然而,随着对数据安全和用户隐私的重视,集中存储数据变的不安全和不可行。图数据通常分布在多个数据源(数据孤岛),由于隐私和安全的原因,从不同的地方收集所需的图数据变的不可行。
机器之心
2022/08/25
6870
一文综述「联邦图机器学习」,概念、技术、应用全都有
面向联邦学习的模型测试和调优怎么整?这篇三万字长文给你答案
机器之心分析师网络 作者:仵冀颖 编辑:H4O 本文重点讨论了面向联邦学习的模型测试和调优。研究者首先回顾了传统机器学习与一般软件测试、调优的区别和联系,然后具体分析了在实际场景中应用联邦学习存在的主要问题,包括神经架构设计、模型选择、超参数优化和调试等等。接着结合几篇最新的研究论文全面了解面向联邦学习的评价和测试,既包括了针对具体应用场景的测试(人类活动识别),也包括了对一般联邦学习算法的测试。最后集中介绍 CMU 研究小组关于联邦学习超参数调优的研究成果。 作为联邦学习系列中的重要内容,本文重点关注面向
机器之心
2023/03/29
9680
面向联邦学习的模型测试和调优怎么整?这篇三万字长文给你答案
联邦学习(Federated Learning)详解以及示例代码
联邦学习也称为协同学习,它可以在产生数据的设备上进行大规模的训练,并且这些敏感数据保留在数据的所有者那里,本地收集、本地训练。在本地训练后,中央的训练协调器通过获取分布模型的更新获得每个节点的训练贡献,但是不访问实际的敏感数据。
deephub
2021/12/15
15.5K0
联邦学习(Federated Learning)详解以及示例代码
数据不动模型动-联邦学习的通俗理解与概述
联邦学习是一种机器学习设定,其中许多客户端(例如:移动设备或整个组织)在中央服务器(例如:服务提供商)的协调下共同训练模型,同时保持训练数据的去中心化及分散性。联邦学习的长期目标则是:在不暴露数据的情况下分析和学习多个数据拥有者(客户端或者独立的设备)的数据。
CV君
2022/03/30
1.7K0
数据不动模型动-联邦学习的通俗理解与概述
机器学习——边缘计算与联邦学习
随着人工智能和机器学习的快速发展,数据的获取和处理逐渐成为一个核心问题。传统的集中式学习方法需要将数据集中存储在一个服务器上进行训练,这种方法带来了许多挑战,例如隐私问题、数据安全以及传输带宽的高需求。为了解决这些问题,边缘计算和联邦学习逐渐被提出并应用于机器学习场景中。这篇博客将深入讨论边缘计算和联邦学习的基本原理、应用场景以及如何结合二者来实现更加智能和安全的数据处理。
hope kc
2024/10/09
7730
联邦学习的未来:深入剖析FedAvg算法与数据不均衡的解决之道
随着数据隐私和数据安全法规的不断加强,传统的集中式机器学习方法受到越来越多的限制。为了在分布式数据场景中高效训练模型,同时保护用户数据隐私,联邦学习(Federated Learning, FL)应运而生。它允许多个参与方在本地数据上训练模型,并通过共享模型参数而非原始数据,实现协同建模。
平凡之路.
2024/11/21
9850
联邦学习的未来:深入剖析FedAvg算法与数据不均衡的解决之道
个性化联邦学习PFedMe详细解读(NeurIPS 2020)
本文介绍一篇 NeurIPS 2020 的论文『Personalized Federated Learning with Moreau Envelopes』,对个性化联邦学习 PFedMe 进行详细解读。
CV君
2022/04/18
2.2K0
个性化联邦学习PFedMe详细解读(NeurIPS 2020)
干货|杨强教授联邦学习公开课视频
题图摄于北京奥林匹克森林公园 相关文章: 联邦学习:人工智能的最后一公里 KubeFATE: 用云原生技术赋能联邦学习(一) 用FATE进行图片识别的联邦学习 (本文经授权转发自FATE开源社区公众号,略有删节) 近日,微众银行首席人工智能官杨强教授结合最新发布的《联邦学习白皮书v2.0》,对联邦学习研究与应用价值展开了最前沿的讨论和分享。 联邦学习作为当前人工智能尤其是AI金融领域,最受工业界和学术界关注的研究方向之一,有哪些前沿研究与应用?欢迎戳下方视频回顾精彩回放,同时直播PPT内容也上传到了公
Henry Zhang
2023/04/18
6130
干货|杨强教授联邦学习公开课视频
联邦学习在视觉领域的应用,揭秘2020年AAAI人工智能创新应用奖获奖案例!
联邦学习是如何应用在视觉领域的? 本文会通过一个获得了2020年AAAI人工智能创新应用奖(也是第一个基于联邦学习的人工智能工业级奖项)的案例来向大家介绍! 本案例是联邦学习在视觉、物联网、安防领域的实际应用,对分散在各地的摄像头数据,通过联邦学习,构建一个联邦分布式的训练网络,使摄像头数据不需要上传,就可以协同训练目标检测模型,这样一方面确保用户的隐私数据不会泄露,另一方面充分利用各参与方的训练数据,提升机器视觉模型的识别效果。 以下内容节选自《联邦学习实战(全彩)》一书! ---- --正文-- 在
博文视点Broadview
2023/05/19
8360
联邦学习在视觉领域的应用,揭秘2020年AAAI人工智能创新应用奖获奖案例!
ICML 2022丨FedScale:大规模联邦学习基准系统
近日密西根大学安娜堡分校的SymbioticLab 在ICML 2022上发布了机器学习顶会上第一篇关于联邦学习基准测试的文章。通过提供不同规模、任务类别和客户端系统性能的真实数据集,整合部分主流联邦学习算法的实现(例如 Oort  [OSDI'21],HeteroFL[ICLR'21],FedProx[MLSys'20]),支持更具扩展性的评估平台,FedScale(论文/ 代码见文末)解决了目前联邦学习基准系统中难以真实地、大规模地评估算法和系统性能的问题。在发布的大半年里,已有不少顶会论文(如CVPR
AI科技评论
2022/06/16
1.6K0
ICML 2022丨FedScale:大规模联邦学习基准系统
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
智能交通系统(ITS)有望通过提高安全性、优化交通流量、减少车辆排放和燃油消耗以及提供信息娱乐服务来 Reshape 流动性。这种转变得益于机器学习(ML)和车辆与一切(V2X)通信技术的进步,促进了车辆网络、行人和基础设施之间的无缝合作,产生了大量数据,并整合成一个统一的车辆互联网(IoV)[1]。为了实现数据共享,IoV依赖于最先进的无线网络技术,这些技术可以提供远距离、低延迟、可靠和安全的传输[2]。
集智书童公众号
2024/06/14
1.6K1
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
7篇ICLR论文,遍览联邦学习最新研究进展
2020 年的 ICLR 会议原计划于4 月 26 日至 4 月 30 日在埃塞俄比亚首都亚的斯亚贝巴举行,这本是首次在非洲举办的顶级人工智能国际会议,但受到疫情影响,ICLR 2020 被迫取消线下会议改为线上虚拟会议。今年的 ICLR 论文接受情况如下:共计接收 679 片文章,其中:poster-paper 共 523 篇、Spotlight-paper(焦点论文)共 107 篇、演讲 Talk 共 48 篇,另有被拒论文(reject-paper)共计 1907 篇,接受率为 26.48%。
机器之心
2020/05/05
1.2K0
当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法
经典的机器学习方法基于样本数据(库)训练得到适用于不同任务和场景的机器学习模型。这些样本数据(库)一般通过从不同用户、终端、系统中收集并集中存储而得到。在实际应用场景中,这种收集样本数据的方式面临很多问题。一方面,这种方法损害了数据的隐私性和安全性。在一些应用场景中,例如金融行业、政府行业等,受限于数据隐私和安全的要求,根本无法实现对数据的集中存储;另一方面,这种方法会增加通信开销。在物联网等一些大量依赖于移动终端的应用中,这种数据汇聚的通信开销成本是非常巨大的。
机器之心
2020/09/24
2.3K0
当传统联邦学习面临异构性挑战,不妨尝试这些个性化联邦学习算法
联邦迁移学习最新进展:计算和传输如何“限制”模型性能?
人工智能系统需要依赖大量数据,然而数据的流转过程以及人工智能模型本身都有可能泄漏敏感隐私数据。
AI科技评论
2021/08/24
9810
联邦迁移学习最新进展:计算和传输如何“限制”模型性能?
推荐阅读
相关推荐
联邦学习最新研究趋势!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档