Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >朱俊彦团队最新论文GANGealing:GAN监督学习密集视觉对齐 | 代码开源

朱俊彦团队最新论文GANGealing:GAN监督学习密集视觉对齐 | 代码开源

作者头像
AI算法与图像处理
发布于 2021-12-13 11:22:52
发布于 2021-12-13 11:22:52
1.1K0
举报

论文标题:

GAN-Supervised Dense Visual Alignment

论文和代码链接:

https://arxiv.org/abs/2112.05143

https://www.github.com/wpeebles/gangealing

效果:

图1给定未对齐图像的输入数据集,我们的GANgealing算法发现所有图像之间的密集对应关系。第一行:来自LSUN CAT的图像和数据集的平均图像。第二行:学习输入图像的变换。第三排:通过GANgealing学习的密集通信。底层:通过对平均变换图像进行注释,我们可以将用户编辑传播到图像和视频中。

摘要

本文提出了GAN监督学习,这是一个用于端到端联合学习判别模型及其GAN生成的训练数据的框架。我们将我们的框架应用于稠密视觉对齐问题。受经典Congealing 方法的启发,我们的 GANgealing 算法训练一个空间transformer,将随机样本从一个基于未对齐数据训练的GAN映射到一个共同的、联合学习的目标模式。我们展示了八个数据集的结果,所有这些结果都表明我们的方法成功地对齐了复杂数据并发现了密集的对应关系。GANgealing显著优于过去的自监督通信算法,在多个数据集上的性能与最先进的监督通信算法相当(有时甚至超过),而无需使用任何通信监督或数据扩充,尽管专门针对GAN生成的数据进行训练。为了实现精确的通信,我们对最先进的监督方法进行了高达3倍的改进。我们展示了我们的方法在增强现实、图像编辑和图像数据集的自动预处理方面的应用。

GANgealing 算法架构

图2 GANgealing概述。我们首先在未对齐的数据上训练生成器G。我们通过在生成器的潜在空间中学习模式c来创建用于对齐的合成生成数据集。我们使用该数据集来训练空间 transformer 网络T,以便使用感知损失将未对齐的图像映射到相应的对齐图像[37]。空间transformer可概括为自动对齐真实图像

更多的算法细节,请阅读论文

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-12-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI算法与图像处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
朱俊彦团队最新论文:用GAN监督学习给左晃右晃的猫狗加表情,很丝滑很贴合
不管视频中的脑袋怎么左晃右晃,这些表情都能始终如一地贴合面部,且每一帧都表现得非常丝滑。
量子位
2021/12/22
4240
朱俊彦团队最新论文:用GAN监督学习给左晃右晃的猫狗加表情,很丝滑很贴合
AI 研究人员提出“GANgealing”:一种 GAN 监督的算法,可以学习输入图像的变换,使它们更好地进行联合对齐
它被认为是光流、3D 匹配和医学成像中的关键元素,仅举几个例子;它还影响跟踪和增强现实。
代码医生工作室
2021/12/13
6710
AI 研究人员提出“GANgealing”:一种 GAN 监督的算法,可以学习输入图像的变换,使它们更好地进行联合对齐
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
该论文发表于CVPR2022,主要是关于GAN监督学习在密集视觉对齐中的应用,并且论文代码已经开源。在该论文中作者提出了一种用于端到端联合学习的GAN生成数据的框架。受到经典方法的启发,论文中作者联合训练一个空间变换器,将随机样本从基于未对齐数据训练的GAN映射到共同的、联合学习的目标模式。
CV君
2022/09/01
5690
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
深度学习-最新论文解释
创建可靠且实时的 3D 姿势估计器的当前困难包括这样的事实:几乎没有训练数据,以及必须考虑遮挡的事实。例如,如果特定身体部位被阻挡而不能看到,则姿势估计器仍必须能够从身体其余部分的位置推断出其位置。
iOSDevLog
2019/04/18
8000
DeepMind开源最牛无监督学习BigBiGAN预训练模型
近日,DeepMind发布了预训练的BigBiGAN表示学习模型,开源代码可以在TF Hub上找到。
新智元
2019/10/14
6960
DeepMind开源最牛无监督学习BigBiGAN预训练模型
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
例如,被称为史上最强图像生成器的BigGAN——许多人看到BigGAN生成的图像都要感叹“太逼真了!DeepMind太秀了吧!”
新智元
2019/07/12
5470
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
用一张草图创建GAN模型,新手也能玩转,朱俊彦团队新研究入选ICCV 2021
机器之心报道 编辑:杜伟、陈 CMU 助理教授朱俊彦团队的最新研究将 GAN 玩出了花,仅仅使用一个或数个手绘草图,即可以自定义一个现成的 GAN 模型,进而输出与草图匹配的图像。相关论文已被 ICCV 2021 会议接收。 深度生成模型(例如 GAN)强大之处在于,它们能够以最少的用户努力合成无数具有真实性、多样性和新颖的内容。近年来,随着大规模生成模型的质量和分辨率的不断提高,这些模型的潜在应用也不断的在增长。 然而,训练高质量生成模型需要高性能的计算平台,这使得大多数用户都无法完成这种训练。此外,训
机器之心
2023/03/29
3640
用一张草图创建GAN模型,新手也能玩转,朱俊彦团队新研究入选ICCV 2021
韩松、朱俊彦等人提出GAN压缩法:算力消耗不到1/9,现已开源
生成模型 GAN 是机器学习领域里最为重要的发展方向之一。但这类算法需要消耗巨量算力,大多数研究者已经很难得出新成果。近年来,这一方向颇有被大型机构垄断的趋势。
机器之心
2020/03/25
6510
Self-Ensembling with GAN-based Data Augmentation for Domain Adaptation in Semantic Segmentation
 基于深度学习的语义分割方法有一个内在的局限性,即训练模型需要大量具有像素级标注的数据。为了解决这一具有挑战性的问题,许多研究人员将注意力集中在无监督的领域自适应语义分割上。无监督域自适应试图使在源域上训练的模型适应目标域。在本文中,我们介绍了一种自组装技术,这是分类中领域自适应的成功方法之一。然而,将自组装应用于语义分割是非常困难的,因为自组装中使用的经过大量调整的手动数据增强对于减少语义分割中的大的领域差距没有用处。为了克服这一限制,我们提出了一个由两个相互补充的组件组成的新框架。首先,我们提出了一种基于生成对抗性网络(GANs)的数据扩充方法,该方法在计算上高效,有助于领域对齐。给定这些增强图像,我们应用自组装来提高分割网络在目标域上的性能。所提出的方法在无监督领域自适应基准上优于最先进的语义分割方法。
狼啸风云
2023/10/07
3010
Self-Ensembling with GAN-based Data Augmentation for Domain Adaptation in Semantic Segmentation
华人团队打造:AutoML + GAN = AutoGAN!AI设计GAN模型比人类更好
生成对抗网络(GAN)自其诞生以来一直盛行。它的一个最显著的成功在于是用各种各样的卷积结构生成逼真的自然图像。
新智元
2019/08/27
8360
华人团队打造:AutoML + GAN = AutoGAN!AI设计GAN模型比人类更好
开源 | 最牛无监督学习BigBiGAN预训练模型
近日,DeepMind发布了预训练的BigBiGAN表示学习模型,开源代码可以在TF Hub上找到。
昱良
2019/10/13
1.2K0
真·无监督!延世大学提出图像到图像无监督模型,实验结果超SOTA
图像翻译目的是用模型将源域图像转换到目标域图像,通常涉及标签图到场景图的转换、图像风格、人脸的属性变换、标签图到场景图的转换。
AI科技评论
2020/06/17
1.1K0
真·无监督!延世大学提出图像到图像无监督模型,实验结果超SOTA
CV圈对决:谷歌提出ViTGAN,用视觉Transformer训练GAN
卷积神经网络(convoluitonal neural networks,CNN)凭借强大的卷积和池化(pooling)能力,在计算机视觉领域占领主导地位。
新智元
2021/07/29
3430
StyleSwin: Transformer-based GAN for High-resolution Image Generation
 尽管Transformer在广泛的视觉任务中取得了诱人的成功,但在高分辨率图像生成建模方面,Transformer还没有表现出与ConvNets同等的能力。在本文中,我们试图探索使用Transformer来构建用于高分辨率图像合成的生成对抗性网络。为此,我们认为局部注意力对于在计算效率和建模能力之间取得平衡至关重要。因此,所提出的生成器在基于风格的架构中采用了Swin Transformer。为了实现更大的感受野,我们提出了双重关注,它同时利用了局部窗口和偏移窗口的上下文,从而提高了生成质量。此外,我们表明,提供基于窗口的Transformer中丢失的绝对位置的知识极大地有利于生成质量。所提出的StyleSwan可扩展到高分辨率,粗糙的几何结构和精细的结构都得益于Transformer的强大表现力。然而,在高分辨率合成期间会出现块伪影,因为以块方式执行局部关注可能会破坏空间相干性。为了解决这个问题,我们实证研究了各种解决方案,其中我们发现使用小波鉴别器来检查频谱差异可以有效地抑制伪影。大量实验表明,它优于现有的基于Transformer的GANs,尤其是在高分辨率(例如1024×1024)方面。StyleWin在没有复杂训练策略的情况下,在CelebA HQ 1024上优于StyleGAN,在FFHQ-1024上实现了同等性能,证明了使用Transformer生成高分辨率图像的前景。
狼啸风云
2023/10/07
9120
StyleSwin: Transformer-based GAN for High-resolution Image Generation
ViTGAN:用视觉Transformer训练生成性对抗网络 Training GANs with Vision Transformers
ViTGAN是加州大学圣迭戈分校与 Google Research提出的一种用视觉Transformer来训练GAN的模型。该论文已被NIPS(Conference and Workshop on Neural Information Processing Systems,计算机人工智能领域A类会议)录用,文章发表于2021年10月。
中杯可乐多加冰
2025/02/09
1211
时间序列自监督学习综述
自监督学习(SSL)是一种机器学习方法,最近在各种时间序列任务上取得了令人印象深刻的表现。SSL最显著的优点是它减少了对标记数据的依赖。基于预训练和微调策略,即使是少量的标记数据也能实现高性能。
算法进阶
2023/08/28
6120
时间序列自监督学习综述
南京大学周志华教授综述论文:弱监督学习
选自NSR 作者:周志华 机器之心编译 在《国家科学评论》(National Science Review, NSR) 2018 年 1 月份出版的机器学习专题期刊中,介绍了南京大学周志华教授发表的一篇论文《A brief introduction to weakly supervised learning》。机器之心经授权对此论文部分内容做了编译介绍,更完整内容可查看英文论文原文。 摘要:监督学习技术通过学习大量训练样本来构建预测模型,其中每个训练样本都有一个标签标明其真值输出。尽管当前的技术已经取得了巨
机器之心
2018/05/10
1.3K0
港中文周博磊团队最新研究:无监督条件下GAN潜在语义识别指南
SeFa 方法能够识别出不同 GAN 模型的潜在语义,进而进行图像编辑。如下图所示:
机器之心
2020/07/29
8770
港中文周博磊团队最新研究:无监督条件下GAN潜在语义识别指南
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
机器之心报道 演讲者:Yoshua Bengio 参与:吴攀、蒋思源 面向开发者的世界上最大的人工智能主题在线演讲与对话大会 AI WITH THE BEST(AIWTB)于 2017 年 4 月 29-30 日在 AIWTB 官网上通过在线直播的方式成功举办。作为第三届 AI WITH THE BEST 华语社区独家合作伙伴,机器之心在前两天接连整理报道了生成对抗网络(GAN)的提出者 Ian Goodfellow 和联想 AI 实验室负责人徐飞玉的精彩演讲。今天,我们将呈现的是著名深度学习学者 Yosh
机器之心
2018/05/08
8110
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
最新 ICCV | 35个GAN应用主题梳理,最全GAN生成对抗论文汇总
这项工作提出一种新的逆映射方案,通过引入迭代细化机制,扩展当前基于编码器的逆映射方法。与当前最先进的方法相比,基于残差的编码器 ReStyle 提高了准确性,推理时间的增加可以忽略不计。https://yuval-alaluf.github.io/restyle-encoder/
公众号机器学习与AI生成创作
2022/05/27
4.6K0
最新 ICCV | 35个GAN应用主题梳理,最全GAN生成对抗论文汇总
推荐阅读
朱俊彦团队最新论文:用GAN监督学习给左晃右晃的猫狗加表情,很丝滑很贴合
4240
AI 研究人员提出“GANgealing”:一种 GAN 监督的算法,可以学习输入图像的变换,使它们更好地进行联合对齐
6710
CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源
5690
深度学习-最新论文解释
8000
DeepMind开源最牛无监督学习BigBiGAN预训练模型
6960
DeepMind爆出无监督表示学习模型BigBiGAN,GAN之父点赞!
5470
用一张草图创建GAN模型,新手也能玩转,朱俊彦团队新研究入选ICCV 2021
3640
韩松、朱俊彦等人提出GAN压缩法:算力消耗不到1/9,现已开源
6510
Self-Ensembling with GAN-based Data Augmentation for Domain Adaptation in Semantic Segmentation
3010
华人团队打造:AutoML + GAN = AutoGAN!AI设计GAN模型比人类更好
8360
开源 | 最牛无监督学习BigBiGAN预训练模型
1.2K0
真·无监督!延世大学提出图像到图像无监督模型,实验结果超SOTA
1.1K0
CV圈对决:谷歌提出ViTGAN,用视觉Transformer训练GAN
3430
StyleSwin: Transformer-based GAN for High-resolution Image Generation
9120
ViTGAN:用视觉Transformer训练生成性对抗网络 Training GANs with Vision Transformers
1211
时间序列自监督学习综述
6120
南京大学周志华教授综述论文:弱监督学习
1.3K0
港中文周博磊团队最新研究:无监督条件下GAN潜在语义识别指南
8770
深度 | Yoshua Bengio AIWTB大会解读深度生成模型:让机器具备无监督学习能力
8110
最新 ICCV | 35个GAN应用主题梳理,最全GAN生成对抗论文汇总
4.6K0
相关推荐
朱俊彦团队最新论文:用GAN监督学习给左晃右晃的猫狗加表情,很丝滑很贴合
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档