Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >破解联邦学习中的辛普森悖论,浙大提出反事实学习新框架FedCFA

破解联邦学习中的辛普森悖论,浙大提出反事实学习新框架FedCFA

作者头像
机器之心
发布于 2025-02-03 05:58:41
发布于 2025-02-03 05:58:41
2270
举报
文章被收录于专栏:机器之心机器之心

江中华,浙江大学软件学院硕士生二年级,导师为张圣宇老师。研究方向为大小模型端云协同计算。张圣宇,浙江大学平台「百人计划」研究员。研究方向包括大小模型端云协同计算,多媒体分析与数据挖掘

随着机器学习技术的发展,隐私保护和分布式优化的需求日益增长。联邦学习作为一种分布式机器学习技术,允许多个客户端在不共享数据的情况下协同训练模型,从而有效地保护了用户隐私。然而,每个客户端的数据可能各不相同,有的数据量大,有的数据量小;有的数据特征丰富,有的数据特征单一。这种数据的异质性和不平衡性(Non-IID)会导致一个问题:本地训练的客户模型忽视了全局数据中明显的更广泛的模式,聚合的全局模型可能无法准确反映所有客户端的数据分布,甚至可能出现「辛普森悖论」—— 多端各自数据分布趋势相近,但与多端全局数据分布趋势相悖。

为了解决这一问题,来自浙江大学人工智能研究所的研究团队提出了 FedCFA,一个基于反事实学习的新型联邦学习框架。

FedCFA 引入了端侧反事实学习机制,通过在客户端本地生成与全局平均数据对齐的反事实样本,缓解端侧数据中存在的偏见,从而有效避免模型学习到错误的特征 - 标签关联。该研究已被 AAAI 2025 接收。

  • 论文标题:FedCFA: Alleviating Simpson’s Paradox in Model Aggregation with Counterfactual Federated Learning
  • 论文链接:https://arxiv.org/abs/2412.18904
  • 项目地址:https://github.com/hua-zi/FedCFA

辛普森悖论

辛普森悖论(Simpson's Paradox)是一种统计现象。简单来说,当你把数据分成几个子组时,某些趋势或关系在每个子组中表现出一致的方向,但在整个数据集中却出现了相反的趋势。

图 1:辛普森悖论。在全局数据集上观察到的趋势在子集上消失 / 逆转,聚合的全局模型无法准确反映全局数据分布

在联邦学习中,辛普森悖论可能会导致全局模型无法准确捕捉到数据的真实分布。例如,某些客户端的数据中存在特定的特征 - 标签关联(如颜色与动物种类的关系),而这些关联可能在全局数据中并不存在。因此,直接将本地模型汇聚成全局模型可能会引入错误的学习结果,影响模型的准确性。

如图 2 所示。考虑一个用于对猫和狗图像进行分类的联邦学习系统,涉及具有不同数据集的两个客户端。客户端 i 的数据集主要包括白猫和黑狗的图像,客户端 j 的数据集包括浅灰色猫和棕色狗的图像。对于每个客户端而言,数据集揭示了类似的趋势:浅色动物被归类为「猫」,而深色动物被归类为「狗」。这导致聚合的全局模型倾向于将颜色与类别标签相关联并为颜色特征分配更高的权重。然而,全局数据分布引入了许多不同颜色的猫和狗的图像(例如黑猫和白狗),与聚合的全局模型相矛盾。在全局数据上训练的模型可以很容易地发现动物颜色与特定分类无关,从而减少颜色特征的权重。

图 2:FedCFA 可以生成客户端本地不存在的反事实样本,防止模型学习到不正确的特征 - 标签关联。

反事实学习

反事实(Counterfactual)就像是「如果事情发生了另一种情况,结果会如何?」 的假设性推理。在机器学习中,反事实学习通过生成与现实数据不同的虚拟样本,来探索不同条件下的模型行为。这些虚拟样本可以帮助模型更好地理解数据中的因果关系,避免学习到虚假的关联。

反事实学习的核心思想是通过对现有数据进行干预,生成新的样本,这些样本反映了某种假设条件下的情况。例如,在图像分类任务中,我们可以改变图像中的某些特征(如颜色、形状等),生成与原图不同的反事实样本。通过让模型学习这些反事实样本,可以提高模型对真实数据分布的理解,避免过拟合局部数据的特点。

反事实学习广泛应用于推荐系统、医疗诊断、金融风险评估等领域。在联邦学习中,反事实学习可以帮助缓解辛普森悖论带来的问题,使全局模型更准确地反映整体数据的真实分布。

FedCFA 框架简介

为了解决联邦学习中的辛普森悖论问题,FedCFA 框架通过在客户端生成与全局平均数据对齐的反事实样本,使得本地数据分布更接近全局分布,从而有效避免了错误的特征 - 标签关联。

如图 2 所示,通过反事实变换生成的反事实样本使局部模型能够准确掌握特征 - 标签关联,避免局部数据分布与全局数据分布相矛盾,从而缓解模型聚合中的辛普森悖论。从技术上讲,FedCFA 的反事实模块,选择性地替换关键特征,将全局平均数据集成到本地数据中,并构建用于模型学习的反事实正 / 负样本。具体来说,给定本地数据,FedCFA 识别可有可无 / 不可或缺的特征因子,通过相应地替换这些特征来执行反事实转换以获得正 / 负样本。通过对更接近全局数据分布的反事实样本进行对比学习,客户端本地模型可以有效地学习全局数据分布。然而,反事实转换面临着从数据中提取独立可控特征的挑战。一个特征可以包含多种类型的信息,例如动物图像的一个像素可以携带颜色和形状信息。为了提高反事实样本的质量,需要确保提取的特征因子只包含单一信息。因此,FedCFA 引入因子去相关损失,直接惩罚因子之间的相关系数,以实现特征之间的解耦。

全局平均数据集的构建

为了构建全局平均数据集,FedCFA 利用了中心极限定理(Central Limit Theorem, CLT)。根据中心极限定理,若从原数据集中随机抽取的大小为 n 的子集平均值记为

,则当 n 足够大时,

的分布趋于正态分布,其均值为 μ,方差

,即:

,其中 µ 和

是原始数据集的期望和方差。

当 n 较小时,

能更精细地捕捉数据集的局部特征与变化,特别是在保留数据分布尾部和异常值附近的细节方面表现突出。相反,随着 n 的增大,

的稳定性显著提升,其方差明显减小,从而使其作为总体均值 𝜇 的估计更为稳健可靠,对异常值的敏感度大幅降低。此外,在联邦学习等分布式计算场景中,为了实现通信成本的有效控制,选择较大的 n 作为样本量被视为一种优化策略。

基于上述分析,FedCFA 按照以下步骤构建一个大小为 B 的全局平均数据集,以此近似全局数据分布:

1.本地平均数据集计算:每个客户端将其本地数据集随机划分为 B 个大小为

的子集

,其中

为客户端数据集大小。对于每个子集,计算其平均值

。由此,客户端能够生成本地平均数据集

以近似客户端原始数据的分布。

2.全局平均数据集计算:服务器端则负责聚合来自多个客户端的本地平均数据,并采用相同的方法计算出一个大小为 B 的全局平均数据集

,该数据集近似了全局数据的分布。对于标签 Y,FedCFA 采取相同的计算策略,生成其对应的全局平均数据标签

。最终得到完整的全局平均数据集

反事实变换模块

图 3:FedCFA 中的本地模型训练流程

FedCFA 中的本地模型训练流程如图 3 所示。反事实变换模块的主要任务是在端侧生成与全局数据分布对齐的反事实样本:

1. 特征提取:使用编码器(Encoder)从原始数据中提取特征因子

2. 选择关键特征:计算每个特征在解码器(Decoder)输出层的梯度,选择梯度小 / 大的 topk 个特征因子作为可替换的因子,使用

将选定的小 / 大梯度因子设置为零,以保留需要的因子

3. 生成反事实样本:用 Encoder 提取的全局平均数据特征替换可替换的特征因子,得到反事实正 / 负样本,对于正样本,标签不会改变。对于负样本,使用加权平均值来生成反事实标签:

因子去相关损失

同一像素可能包含多个数据特征。例如,在动物图像中,一个像素可以同时携带颜色和外观信息。为了提高反事实样本的质量,FedCFA 引入了因子去相关(Factor Decorrelation, FDC)损失,用于减少提取出的特征因子之间的相关性,确保每个特征因子只携带单一信息。具体来说,FDC 损失通过计算每对特征之间的皮尔逊相关系数(Pearson Correlation Coefficient)来衡量特征的相关性,并将其作为正则化项加入到总损失函数中。

给定一批数据,用

来表示第 i 个样本的所有因子。

表示第 i 个样本的第 j 个因子。将同一批次中每个样本的相同指标 j 的因子视为一组变量

。最后,使用每对变量的 Pearson 相关系数绝对值的平均值作为 FDC 损失:

其中 Cov (・) 是协方差计算函数,Var (・) 是方差计算函数。最终的总损失为:

实验结果

实验采用两个指标:500 轮后的全局模型精度 和 达到目标精度所需的通信轮数,来评估 FedCFA 的性能。

实验基于 MNIST 构建了一个具有辛普森悖论的数据集。具体来说,给 1 和 7 两类图像进行上色,并按颜色深浅划分给 5 个客户端。每个客户端的数据中,数字 1 的颜色都比数字 7 的颜色深。随后预训练一个准确率 96% 的 MLP 模型,作为联邦学习模型初始模型。让 FedCFA 与 FedAvg,FedMix 两个 baseline 作为对比,在该数据集上进行训练。如图 5 所示,训练过程中,FedAvg 和 FedMix 均受辛普森悖论的影响,全局模型准确率下降。而 FedCFA 通过反事实转换,可以破坏数据中的虚假的特征 - 标签关联,生成反事实样本使得本地数据分布靠近全局数据分布,模型准确率提升。

图 4: 具有辛普森悖论的数据集

图 5: 在辛普森悖论数据集上的全局模型 top-1 准确率

消融实验

图 6:因子去相关 (FDC) 损失的消融实验

© THE END

转载请联系本公众号获得授权

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
个性化联邦学习提升客户体验技术解析
联邦学习(FL)是一种允许边缘设备(如智能语音设备)在保持客户数据本地化的前提下协作训练全局模型的框架。标准FL系统包含云服务器和多个客户端(设备),每个设备拥有本地数据及机器学习模型的本地副本。
用户11764306
2025/09/12
1020
深度学习前沿探索:联邦学习的梯度安全与差分隐私噪声注入的收敛界分析
在人工智能领域,数据隐私保护与模型性能的平衡一直是核心挑战之一。联邦学习(Federated Learning)作为一种分布式机器学习范式,自2016年由Google提出以来,已经发展成为解决这一难题的重要技术路径。其核心思想是让数据保留在本地设备或机构中,仅通过交换模型参数或梯度来实现协同训练,从而在保护数据隐私的同时获得全局模型的知识。
用户6320865
2025/08/27
2210
深度学习前沿探索:联邦学习的梯度安全与差分隐私噪声注入的收敛界分析
ICCV 2025 | 新型后门攻击直指Scaffold联邦学习,NTU联手0G Labs揭示中心化训练安全漏洞
通过使用控制变元(control variate)来校准每个客户端的本地梯度,Scaffold 已被广泛认为是缓解联邦学习中数据异质性影响的一种强大方案。但尽管 Scaffold 实现了显著的性能提升,这种优越性是以增加安全漏洞为代价的。
机器之心
2025/08/11
1580
ICCV 2025 | 新型后门攻击直指Scaffold联邦学习,NTU联手0G Labs揭示中心化训练安全漏洞
基于PyTorch实现联邦学习的基本算法FedAvg
在之前的一篇文章联邦学习基本算法FedAvg的代码实现中利用numpy手搭神经网络实现了FedAvg,相比于自己造轮子,还是建议优先使用PyTorch。
Cyril-KI
2022/11/08
9400
基于PyTorch实现联邦学习的基本算法FedAvg
迷人又诡异的辛普森悖论:同一个数据集是如何证明两个完全相反的观点的?
在辛普森悖论中,餐馆可以同时比竞争对手更好或更差,锻炼可以降低和增加疾病的风险,同样的数据集能够用于证明两个完全相反的论点。
大数据文摘
2018/11/30
1.4K0
迷人又诡异的辛普森悖论:同一个数据集是如何证明两个完全相反的观点的?
联邦学习 OR 迁移学习?No,我们需要联邦迁移学习
海量训练数据是现代机器学习算法、人工智能技术在各个领域中应用获得成功的重要条件。例如,计算机视觉和电子商务推荐系统中的 AI 算法都依赖于大规模的标记良好的数据集才能获得较好的处理效果,如 ImageNet 等。然而在一些应用领域中,例如医学领域、经济学领域以及一些政务信息化领域中,海量的可用训练数据往往是非常有限的。存在这些问题的主要原因:一是,针对机器学习算法的数据标注任务需要专业的知识和经验才能完成,这种预处理任务的成本非常高,往往无法获得机器学习所需要的足够的标注数据。二是,各个行业对数据隐私和数据安全的保护越来越强,在一定程度上也限制了对训练数据的共享,也就进一步加剧了可用的标注数据缺乏的问题。
机器之心
2020/11/20
1.2K0
联邦学习 OR 迁移学习?No,我们需要联邦迁移学习
隐私计算中的联邦学习
数据资产已经成为产品和服务设计的关键工具,但是集中采集用户数据会使个人隐私面临风险,进而使组织面临法律风险。从2016年开始,人们开始探索如何在用户隐私保护下使用数据的所有权和来源,这使得联邦学习和联邦分析成为关注的热点。随着研究范围的不断扩大,联邦学习已经开始应用到物联网等更广泛的领域。
半吊子全栈工匠
2022/12/03
1.3K0
隐私计算中的联邦学习
联邦知识蒸馏概述与思考(续)
前文(【科普】联邦知识蒸馏概述与思考)提到知识蒸馏是一种模型压缩方法,通过利用复杂模型(Teacher Model)强大的表征学习能力帮助简单模型(Student Model)进行训练,主要分为两个步骤:
CV君
2022/04/18
1.5K0
联邦知识蒸馏概述与思考(续)
WorldS4 2020 | 联邦学习的个性化技术综述
题目:Survey of Personalization Techniques for Federated Learning
Cyril-KI
2022/11/08
1K0
WorldS4 2020 | 联邦学习的个性化技术综述
ICML 2024 | MH-pFLID:通过注入和蒸馏的模型异构个性化联邦学习用于医疗数据分析
今天为大家介绍的是来自Tianyu Luan团队的一篇论文。联邦学习广泛应用于医疗领域,用于在不需要访问本地数据的情况下训练全局模型。然而,由于客户间不同的计算能力和网络架构(系统异构性),从非独立同分布(non-IID)数据中有效聚合信息面临着重大挑战。当前使用知识蒸馏的联邦学习方法需要公共数据集,这会引发隐私和数据收集问题。此外,这些数据集需要额外的本地计算和存储资源,这对于硬件条件有限的医疗机构来说是一个负担。在本文中,作者引入了一种新颖的联邦学习范式,称为基于注入和蒸馏的模型异构个性化联邦学习(MH-pFLID)。作者的框架利用一个轻量级的信使模型来收集每个客户的信息。作者还开发了一套接收器和发射器模块,用于接收和发送来自信使模型的信息,以便高效地注入和蒸馏信息。作者的框架消除了对公共数据集的需求,并在客户之间高效地共享信息。作者在各种医学任务上的实验表明,MH-pFLID 在所有这些领域均优于现有的最先进方法,并具有良好的泛化能力。
DrugOne
2024/07/16
7610
ICML 2024 | MH-pFLID:通过注入和蒸馏的模型异构个性化联邦学习用于医疗数据分析
港科技提出 FedCoLLM:一种用于大、小语言模型的参数高效联合共调优框架 !
大语言模型(LLMs)的出现极大地改变了人工智能的格局。特别是像GPT-4这样的尖端LLM由于在自然语言生成任务上表现出卓越的性能,而引起了广泛关注。这一发展推动了高性能开源LLM的发布,如LaMDA [18],OPT [21],极大地促进了LLM技术的商业应用。尽管LLM在各种通用NLP任务中取得了广泛的成功,但它们在特定领域应用中仍面临一些限制。主要挑战包括:
AIGC 先锋科技
2024/12/19
2970
港科技提出 FedCoLLM:一种用于大、小语言模型的参数高效联合共调优框架 !
交叉熵损失函数计算,联邦学习FL的关键概念
假设 事件X 共有n种可能,发生 xi 的概率为 p(xi) ,那么该事件的熵 H(X) 为:
zhangjiqun
2024/12/13
2810
交叉熵损失函数计算,联邦学习FL的关键概念
个性化联邦学习PFedMe详细解读(NeurIPS 2020)
本文介绍一篇 NeurIPS 2020 的论文『Personalized Federated Learning with Moreau Envelopes』,对个性化联邦学习 PFedMe 进行详细解读。
CV君
2022/04/18
2.3K0
个性化联邦学习PFedMe详细解读(NeurIPS 2020)
一文概述联邦持续学习最新研究进展
由于数据隐私限制,多个中心之间的数据共享受到限制,这就影响了联邦学习架构下多中心合作开发高性能深度学习模型的效果。持续学习(Continual Learning)作为点对点联合学习的一种方法,可以通过共享中间模型而不是训练数据来绕过数据隐私的限制,从而促进多中心协作开发深度学习算法。近期不断有研究人员探索联邦持续学习方法(Federated Continual Learning,FCL),即,研究持续学习在联邦学习架构下多中心协作的可行性。
机器之心
2023/08/07
1.9K0
一文概述联邦持续学习最新研究进展
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
智能交通系统(ITS)有望通过提高安全性、优化交通流量、减少车辆排放和燃油消耗以及提供信息娱乐服务来 Reshape 流动性。这种转变得益于机器学习(ML)和车辆与一切(V2X)通信技术的进步,促进了车辆网络、行人和基础设施之间的无缝合作,产生了大量数据,并整合成一个统一的车辆互联网(IoV)[1]。为了实现数据共享,IoV依赖于最先进的无线网络技术,这些技术可以提供远距离、低延迟、可靠和安全的传输[2]。
集智书童公众号
2024/06/14
1.8K1
FedPylot,联邦学习框架下的YOLOv7实时目标检测与隐私保护研究!
KBS 2021 | 联邦学习综述
论文地址:https://www.sciencedirect.com/science/article/abs/pii/S0950705121000381
Cyril-KI
2022/11/08
9430
KBS 2021 | 联邦学习综述
纵向联邦学习技术在汽车增换购业务中的应用与实践
题图摄于香港 由于微信公众号更改显示规则,请点击上面“亨利笔记”,再点击右上角”...",选择“设为星标”,以免错过更新。 (转发FATE开源社区的文章) 很荣幸为大家带来一篇亚信科技的精彩投稿。随着联邦学习技术的迭代,逐步在多个场景落地,其中以营销推广、金融风控为典型代表。该文章将通过实践案例,与大家分享纵向联邦学习技术在汽车增换购业务中的应用与实践。文章包括方案设计、案例实践过程、以及效果总结等非常细致的内容。 文章由亚信科技(中国)有限公司AISWare AI² FL产品经理吴珺撰写,感谢亚信科技及
Henry Zhang
2023/04/04
8550
纵向联邦学习技术在汽车增换购业务中的应用与实践
联邦学习的提出 | 从分散数据通信高效学习深度网络
联邦学习(Federated Learning)是人工智能的一个新的分支,这项技术是谷歌于2016年首次提出,本篇论文第一次描述了这个概念!
Cyril-KI
2022/09/16
9580
联邦学习的提出 | 从分散数据通信高效学习深度网络
半监督学习的概述与思考,及其在联邦场景下的应用(续)
上一文(【科普】半监督学习的概述与思考,及其在联邦学习场景下的应用)中,我们主要介绍了半监督学习相关的基础知识、方法以及一些SOTA论文,接下来我们将从联邦学习结合半监督学习的角度来进行探讨。
CV君
2022/03/30
9230
半监督学习的概述与思考,及其在联邦场景下的应用(续)
动物与人类存在的「关键学习期」,联邦学习也有
关于关键学习期问题,我们之前撰写过这样一篇文章深度学习中的关键学习期(Critical learning periods)。生物学领域的研究人员已经确定,人类或动物存在关键期的原因是对神经元可塑性窗口的生物化学调控(the biochemical modulation of windows of neuronal plasticity)[1]。从生物学角度来看,关键期(critical periods)是指出生后早期发育的时间窗口,在这期间,感知缺陷可能导致永久性的技能损伤。生物学领域的研究人员已经发现并记录了影响一系列物种和系统的关键期,包括小猫的视力、鸟类的歌曲学习等等。对于人类来说,在视觉发育的关键时期,未被矫正的眼睛缺陷(如斜视、白内障)会导致 1/50 的成人弱视。
机器之心
2023/09/08
4840
动物与人类存在的「关键学习期」,联邦学习也有
推荐阅读
相关推荐
个性化联邦学习提升客户体验技术解析
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档