作者:Tao Liu, Dafeng Zhang等
解读:AI生成未来

论文链接: https://arxiv.org/abs/2506.20977
代码链接: https://github.com/byliutao/Cradle2Cane
长期以来,人脸老化(Face Aging)任务都面临一个核心挑战:如何在大幅度改变年龄特征的同时,完美保留原本的身份信息? 作者将这一挑战定义为 “Age-ID Trade-off”(年龄-身份权衡)。

本文提出了一种基于 SDXL-Turbo 的两阶段(Two-Pass)扩散框架 —— Cradle2Cane。该方案的核心思想是“解耦”:将年龄变换和身份保持拆解为两个独立的子任务进行优化。

这一阶段的目标是“精准变老”。 作者发现,年龄跨度越大,所需的图像结构变化越剧烈。因此,AdaNI 机制会根据目标年龄与源年龄的差距,动态调整注入潜空间(Latent Space)的噪声水平 。

这一阶段的目标是“找回身份”。 在第一阶段生成的图像基础上,模型通过引入 IDEmb 进行去噪引导。IDEmb 由两个创新模块组成:
在 CelebA-HQ 和 CelebA-HQ (in-the-wild) 数据集上的实验表明,Cradle2Cane 在 Face++ 和 Qwen-VL 多模态大模型两种评估协议下,均取得了 SOTA 的成绩。 特别是在 HCS (Harmonic Consistency Score) 这一综合指标上,本文方法大幅领先于 SAM, CUSP, FADING 等基线模型 。

无论是皱纹的加深、皮肤的松弛,还是发色的改变(如变白),Cradle2Cane 都能生成极其自然的细节。 更重要的是,即使是处理 In-the-wild 的图片,在面对遮挡、侧脸、复杂光照时,该模型仍旧能够展现不错的效果。


得益于两阶段编辑的灵活性,除了单独改变年龄,该方法还能同步进行人脸属性编辑。比如该方法可以无缝地应用各种属性,例如,戴眼镜、绿色的头发、戴帽子,同时持续地进行年龄增长,显著提高了生成图像的多样性和可控性。



Cradle2Cane 的成功证明了在生成式AI时代,针对特定任务的结构化解耦设计依然具有巨大的潜力。通过放弃“一步到位”的传统思路,采用由粗到精、先年龄迁移再ID增强的策略,南开大学与三星的研究团队为基于Diffusion的人脸年龄编辑任务提供了一个新的框架,来解决长久存在的“Age-ID trade-off“问题。 这不仅是一次算法的创新,更让我们看到了AI在数字娱乐、影视特效甚至寻找走失人口等社会公益领域的广阔应用前景。
[1] From Cradle to Cane: A Two-Pass Framework for High-Fidelity Lifespan Face Aging