来源:晓飞的算法工程笔记 公众号,转载请注明出处
论文: Parameter Competition Balancing for Model Merging
尽管对预训练模型进行微调已成为一种常见做法,但这些模型在其特定领域之外往往表现不佳。最近模型融合技术使得能够将多个经过不同任务微调的模型直接集成到一个模型中,集成模型具备多任务能力而无需在原始数据集上进行重新训练。然而,现有方法在解决任务之间潜在冲突和复杂相关性方面存在不足,特别是在参数级别调整中,造成在不同任务间有效平衡参数竞争的挑战。
论文提出了轻量级且无需训练的创新模型融合技术 ${\tt Pcb-Merging}$ (Parameter Competition Balancing
),通过调整每个参数的系数实现有效的模型融合。 ${\tt Pcb-Merging}$ 采用内部平衡来评估各个任务中参数的重要性,并采用外部平衡来评估不同任务间的参数相似性。重要性分数较低的参数被舍弃,其余参数被重新缩放,以形成最终的融合模型。
论文在多种融合场景中评估了该方法,包括跨任务、跨领域和跨训练配置,以及领域外泛化。实验结果表明,该方法在多个模态、领域、模型大小、任务数量、微调形式以及大型语言模型中实现了显著的性能提升,超越了现有的模型融合方法。
PCB-Merging
最近的模型合并研究基于任务向量完成各种任务算术操作和模型合并。对于任务 $Ti$ ,任务向量 $\tau{i} \in \mathbb{R}^\textrm{d}$ 定义为通过从微调权重 $\theta\textrm{i}$ 中减去预训练权重 $\theta\textrm{pre}$ 所得到的向量,即 $\tau{i} = \theta\textrm{i} - \theta\textrm{pre}$ ,用于专注每个任务特定模型微调阶段发生的变化。基于任务向量的多任务模型合并方法可以表达为 $\theta_m = \theta\textrm{pre} + \lambda * \sum{i=1}^{n}\tau_i$ ,其中系数 $\lambda$ 表示合并任务向量 $\tau_m$ 的重要性。这个概念简单而有效,显著优于简单的权重平均方案,即 $\theta_m = (1/N)\sum{i=1}^{n}\theta_i$ 。
PCB-Merging
旨在调节每个任务和参数的缩放因子,实现任务内部和平衡任务之间的相互平衡。具体而言,使用参数竞争平衡(PCB
)矩阵 $\beta_i \in \mathbb{R}^{d}$ 来调整每个任务模型 $\theta_i \in \mathbb{R}^{d}$ 中参数的规模,从而得到最终的融合模型,具体如下:
首先,通过对任务向量的幅度应用非线性激活函数(即softmax
)来实现self-awareness
,强调重要参数,同时在一定程度上抑制冗余参数。
随着融合任务数量的增加,参数之间的竞争加剧。因此,使用任务数量 $N$ 来调节冗余参数的抑制程度。
$$
\begin{equation}
\beta_{intra, i} = \text{Softmax}(N*\text{Norm}({\tau}_i \odot{\tau}_i))
\end{equation}
$$
接下来,使用cross-awareness
来使一组任务内的参数能够与其他参数互动,从而解决任务之间潜在的冲突和复杂的相关性。
为了实现这一目标,计算不同任务向量中相同位置参数之间的相似度,使得每个参数能够基于来自其他任务的信息更新其分数。计算过程如下:
$$
\begin{equation}
\beta{inter, i} = \sum\nolimits{j=1}^{n} \text{Softmax}(\text{Norm}({\tau}_i \odot{\tau}_j))
\end{equation}
$$
得到 $\beta{i} = \beta{intra, i} \odot \beta_{inter, i}$ 后,基于 $\beta_i$ 构建一个掩码 $m_i \in \mathbb{R}^{d}$ 以关注更重要的参数。具体而言,这个掩码 $m_i$ 用于从 $\beta_i$ 的 $D$ 个元素中选择高分数元素。
定义掩码比例为 $r$ ,其中 $0 < r \leq 1$ 。掩码 $m_i$ 可以通过以下公式推导得出:
$$
\begin{equation}
m_{i, d} = \begin{cases}
1,& \text{if } \beta_{i, d} \geq\text{sorted}(\beta_i)(1-r) \times D \
0,& \text{otherwise}
\end{cases}
\end{equation}
$$
重要性分数定义为 $\hat{\beta} = m_i \odot \beta_i$ ,使用掩码平衡矩阵的分数来加权每个任务向量中每个参数的重要性,得到最终合并的任务向量 $\tau_m$ :
$$
\begin{equation}
\taum = \sum\nolimits{i=1}^{n}(\hat{\beta}i \odot{\tau}_i) / \sum\nolimits{i=1}^{n}\hat{\beta}_i
\end{equation}
$$
最终合并的任务向量 $\taum$ 可以进一步按比例调整其幅度,并将其与初始参数值结合以生成融合后的模型参数 $\theta_m$ ,表示为 $\theta_m = \theta\textrm{pre} + \lambda * \tau_m$ ,其中 $\lambda$ 是一个缩放超参数。
先前的研究表明,基于任务向量的模型合并方法对合并系数 $\lambda$ 非常敏感。即便选取了合适的统一 $\lambda$ ,要进一步提高融合性能仍然需要对每个任务向量进行合并系数的网格搜索。这个过程复杂且繁琐,特别是在处理大量任务时。
论文采用智能优化算法来搜索混合系数,旨在比使用统一系数获得更大的改进。这一优化过程旨在寻找最佳的集合 ${\lambda_1, \cdots, \lambda_n}$ ,以增强验证准确性,最终目标是最大化合并模型的验证准确性。
$$
\begin{equation}
\thetam = \theta\textrm{pre} + \sum\nolimits{i=1}^{n}(\hat{\beta}_i \odot \lambda_i {\tau}_i) / \sum\nolimits{i=1}^{n}\hat{\beta}_i
\end{equation}
$$
在大多数实验设置中,主要使用协方差矩阵自适应进化策略(CMA-ES
)。作为一种基于概率的种群优化算法,CMA-ES
动态调整由协方差矩阵定义的搜索分布。它在每次迭代中系统地更新该分布的均值和协方差,以学习并利用搜索空间的潜在结构,从而提高优化效率。
如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有