前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >详解 GAN 在自然语言处理中的问题:原理、技术及应用

详解 GAN 在自然语言处理中的问题:原理、技术及应用

作者头像
新智元
发布于 2018-03-27 03:11:50
发布于 2018-03-27 03:11:50
2K0
举报
文章被收录于专栏:新智元新智元

【新智元导读】本文从 GAN 为什么没有在自然语言处理(NLP)中取得让人惊喜的成果出发,分析了原始 GAN 在 NLP 中的问题。 介绍和分析了近期将 GAN 应用于 NLP 中的一些论文,并进行了总结。

GAN 自从被提出以来,就广受大家的关注,尤其是在计算机视觉领域引起了很大的反响。这篇文章主要介绍 GAN 在 NLP 里的应用(可以算是论文解读或者论文笔记),并未涉及GAN 的基本知识 。由于很长时间没有写中文文章了,请各位对文章中不准确的地方多多包涵、指教。

GAN 为什么没有 NLP 取得好成绩?

虽然 GAN 在图像生成上取得了很好的成绩,GAN 并没有在自然语言处理(NLP)任务中取得让人惊喜的成果。 其原因大概可以总结为如下几点:

(1) 原始 GAN 主要应用实数空间(连续型数据)上,在生成离散数据(texts)这个问题上并不 work。GAN 理论的提出者 Ian Goodfellow 博士这样回答来这个问题问题:“GANs 目前并没有应用到自然语言处理(NLP)中,最初的 GANs 仅仅定义在实数领域,GANs 通过训练出的生成器来产生合成数据,然后在合成数据上运行判别器,判别器的输出梯度将会告诉你,如何通过略微改变合成数据而使其更加现实。一般来说只有在数据连续的情况下,你才可以略微改变合成的数据,而如果数据是离散的,则不能简单的通过改变合成数据例如,如果你输出了一张图片,其像素值是1.0,那么接下来你可以将这个值改为1.0001。如果输出了一个单词“penguin”,那么接下来就不能将其改变为“penguin + .001”,因为没有“penguin +.001”这个单词。 因为所有的自然语言处理(NLP)的基础都是离散值,如“单词”、“字母”或者“音节”, NLP 中应用 GANs是非常困难的。一般而言,采用增强学习算法。目前据我所知,还没有人真正的开始研究利用增强算法解决 NLP 问题。”

(2) 在生成 text 时,GAN 对整个文本序列进行建模打分。对于部分(partially)生成的序列,十分难判断其在之后生成整个 (fully) 序列时的分数。

(3) 另一个潜在的挑战涉及 RNN 的性质(生成文本大多采用 RNN 模型)。假设我们试图从 latent codes 生成文本,error 就会随着句子的长度成指数级的累积。最开始的几个词可能是相对合理的,但是句子质量会随着句子长度的增加而不断变差。另外,句子的长度是从随机的 latent representation 生成的,所以句子长度也是难以控制。

近期将 GAN 应用于 NLP的论文介绍

下面我将主要介绍和分析最近阅读过的将 GAN 应用于 NLP 中的一些论文:

1. Generating Text via Adversarial Training

论文链接:

http://people.duke.edu/~yz196/pdf/textgan.pdf

这是2016年的 NIPS GAN Workshop 上的一篇论文, 尝试将 GAN 理论应用到了文本生成任务上。 文中的方法比较简单,具体可以总结为:

(1) 以递归神经网络(LSTM)作为GAN的生成器(generator)。其中,用光滑近似(smooth approximation)的思路来逼近 LSTM 的输出。结构图如下:

(2) 目标函数和原始 GAN 有所不同,文中采用了feature matching 的方法 。迭代优化过程包含以下两个步骤:

其中式 (6) 为标准GAN的优化函数,式 (7) 为feature matching的优化函数。

(3) 本文的初始化非常有意思,特别是在判别器的预训练方面,利用原始的句子和该句子中交换两个词的位置后得到的新句子进行判别训练。(在初始化的过程中,运用逐点分类损失函数对判别器进行优化)。这非常有意思,因为将两个单词互换位置,输入的数据信息实际上是基本相同的。比如,大多数卷积计算最终会得出完全相同的值。

(4) 本文生成器的更新频率是判别器的更新频率的5倍,这与原始GAN的设定恰好相反。这是因为LSTM比CNN的参数更多,更难训练。

(5) 然而,本文生成模型 (LSTM) decode 阶段有 exposure bias 问题,即在训练过程中逐渐用预测输出替代实际输出作为下一个词的输入。

2. SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

论文链接:https://arxiv.org/pdf/1609.05473.pdf

论文源码:https://github.com/LantaoYu/SeqGAN

文本将误差作为一种增强学习的奖励,以一种前馈的方式训练,用增强的学习的探索模式去更新G网络。

主要内容:这篇论文将序列生成过程当作一个 sequential decision making 过程。如下图:

(1) 其中左图为 GAN 网络训练的步骤1,判别器D 主要用来区分真实样本和伪造样本,这里的判别器D 是用 CNN 来实现的。

(2) 右图为 GAN 网络训练的步骤2, 根据判别器D 回传的判别概率回传给生成器G,通过增强学习的方法来更新生成器G,这里的的生成器G 是用 LSTM 来实现的。

(3) 因为 G网络的更新策略是增强学习,增强学习的四个要素 state, action, policy, reward分别为:state 为现在已经生成的tokens (当前 timestep 之前 LSTM decoder 的结果), action 是下一个即将生成的 token (当前解码词), policy 为 GAN 的生成器 G网络,reward 为GAN 的判别器 D网络所生成的判别概率。其中,reward 采用以下方法来近似:

本过程特点:即当解码到t时,即对后面 T-t 个 timestep 采用蒙特卡洛搜索搜索出 N 条路径,将这 N 条路径分别和已经 decode 的结果组成N条完整输出,然后将 D 网络对应奖励的平均值作为 reward. 因为当 t=T 时无法再向后探索路径,所以直接以完整 decode 结果的奖励作为 reward。

(4) 对于 RL 部分,本文采用了 policy gradient 方法。 根据 policy gradient 理论,生成器G的目标函数可以表示如下:

求导结果为: (详细推导过程请看原论文附页)

(5) 每隔一段时间,当生成更多的更逼真的句子后,重新训判别器D,其中判别器的目标函数表示如下:

算法结构图可以表示为如下:

实验部分主要分为合成数据实验和现实数据实验:

(1) 合成数据实验: 随机初始一个 LSTM 生成器 A,随机生成一部分训练数据,来训练各种生成模型。

评判标准为:负对数似然(交叉熵) NLL. 详细实验设置可以参看原论文。

(2) 现实数据实验:主要展示中文诗句生成,奥巴马演讲生成,音乐生成的结果。实验数据分别为中文诗歌数据集 (16,394首绝句),奥巴马演讲数据集 (11,092 段落), Nottingham 音乐数据集 (695首歌)。评测方法为 BLEU score, 实验结果如下:

文中并未展示模型生成的诗歌等, 具体效果如何呢?

3. Adversarial Learning for Neural Dialogue Generation

论文链接:https://arxiv.org/pdf/1701.06547.pdf

论文源码:https://github.com/jiweil/Neural-Dialogue-Generation

这篇论文是2017年1月26号上传到 arxiv上的,属于最新的 GAN 用于 NLP 的论文。文中主要用对抗性训练 (adversarial training) 方法来进行开放式对话生成 (open-domain dialogue generation)。文中把这项任务作为强化学习(RL)问题,联合训练生成器和判别器。和 SeqGAN 一样,本文也是使用判别器D 的结果作为 RL 的 reward 部分,这个 reward 用来奖励生成器G,推动生成器G 产生的对话类似人类对话。

总体来说,本文的思路和 SeqGAN 是大体一样的,但是有几处不同和改进的地方:

(1) 因为本文是用于开放式对话生成,所以文中的生成器采用 seq2seq 模型 (而非普通的 LSTM 模型)。 判别器则采用了 hierarchical encoder (而非 CNN)。

(2) 采取了两种方法为完全生成或者部分生成的序列计算 reward。除了 Monte Carlo search (与 SeqGAN相似) 方法,本文新提出了一个能对部分生成的序列进行 reward 计算的方法。使用所有完全 (fully) 和部分 (partially) 解码的序列来训练判别器会造成 overfitting。早期产生的部分(partially)序列会出现在许多的训练数据中,比如生成的第一个 token y_1 将会出现在所有的部分生成 (partially generated) 的序列里。所以本文提出仅仅分别从正(positive)序列 y+ 和负(negative)序列y-的每个子序列中随机地选取一个 sample 来训练判别器D。这个方法比 Monte Carlo search 更快速,但是也会使得判别器更弱,更不准确。

(3) 在 SeqGAN 中,生成器只能间接的通过判别器生成的 reward 来奖励或者惩罚自己所产生的序列。而不能直接从 gold-standard 序列中直接获取信息。 这种训练方式是脆弱的,一旦生成器在某个训练 batch 中变坏,判别器将会很容易对生成的句子进行判断 (比如 reward为0 ),此时生成器就会迷失。生成器只知道现在生成的句子是坏的,但是并不知道如何调整才能使得生成的句子变好。为了解决这个问题,在生成器的更新过程中,本文输入了 human-generated responses。对于这些 human-generated responses, 判别器可以将其 reward 设置为1。这样生成器可以在上述情况下仍能生成好的 responses。

(4) 训练过程中,有些针对 dialogue system 的设置(trick)。这部分内容,读者可以参考 Jiwei Li 之前的关于 dialogue system 的论文。

部分实验结果:

值得思考的地方:文中只尝试用判别器的结果作为 reward, 结合 原文作者之前在 dialogue system 文中提出的其他 reward 机制(e.g., mutual information)会不会提高效果?

4. GANs for sequence of discrete elements with the Gumbel-softmax distribution

论文链接:https://arxiv.org/pdf/1611.04051.pdf

相比前面两篇论文,本文在处理离散数据这个问题上则比较简单暴力。

离散数据 (用one-hot方法表示)一般可以从多项式采样取得,例如由softmax函数的输出p = softmax(h)。 根据之前的概率分布,以p的概率进行采样y的过程等价于:y=one_hot(argmax_i(h_i+g_i)) , 其中g_i是服从Gumbel distribution (with zero location and unit scale)。然而one_hot(argmax(.)) 是不可微分的。

与原始GAN不同,作者提出了一种方法来近似上面的式子: y = softmax(1/ r (h + g))。这个公式是可以微分的。算法结构如下:

本文的实验部分做得比较粗糙,只展示了生成得context-free grammar, 并未在生成其他文本数据上做实验。

总的来说,这篇论文本身方法还值得改进,也可以值得借鉴下。

5. Connecting generative adversarial network and actor-critic methods

论文链接:https://arxiv.org/pdf/1610.01945.pdf

Actor-critic methods [2]: 许多RL方法 (e.g., policy gradient) 只作用于policy 或者 value function。Actor-critic方法则结合了policy-only和value function-only 的方法。 其中critic用来近似或者估计value function,actor 被称为policy structure, 主要用来选择action。Actor-critic是一个on-policy的学习过程。Critic模型的结果用来帮助提高actor policy的性能。

GAN和actor-critic具有许多相似之处。Actor-critic模型中的actor功能类似于GAN中的generator, 他们都是用来take an action or generate a sample。Actor-critic模型中的critic则类似于GAN中的discriminator, 主要用来评估 actor or generator 的输出。具体的相同和不同点,感兴趣的朋友可以仔细阅读原文。

这篇论文主要贡献在于从不同的角度来说明了GAN和actor-critic模型的相同与不同点,从而鼓励研究GAN的学者和研究actor-critic模型的学者合作研发出通用、稳定、可扩展的算法,或者从各自的研究中获取灵感。

最近Bahdanau等大神提出了用actor-critic模型来进行sequence prediction [3]。虽然[3]中并没有用到GAN,或许对各位能有启发。 用类似的思想,GAN在sequence prediction上也许也能取得的比较好的效果?

[1] 深度解读:GAN模型及其在2016年度的进展

[2] Actor-Critic Algorithms

[3] An actor-critic algorithm for sequence prediction

笔者最近也在关注和从事 non-goal-oriented dialogue system 以及 goal-oriented question answering 的研究, please feel free to contact me if you have similar interests.

新浪微博:杨敏_HKU,Wechat: yangmin19911129

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-02-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
干货|GAN for NLP (论文笔记及解读)
GAN 自从被提出以来,就广受大家的关注,尤其是在计算机视觉领域引起了很大的反响。“深度解读:GAN模型及其在2016年度的进展”[1]一文对过去一年GAN的进展做了详细介绍,十分推荐学习GAN的新手们读读。这篇文章主要介绍GAN在NLP里的应用(可以算是论文解读或者论文笔记),并未涉及GAN的基本知识 (没有GAN基础知识的小伙伴推荐先看[1],由于本人比较懒,就不在这里赘述GAN的基本知识了J)。由于很长时间没有写中文文章了,请各位对文章中不准确的地方多多包涵、指教。
fishexpert
2018/11/21
2.9K0
2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa
BERT 推出这一年来,除了 XLNet,其他的改进都没带来太多惊喜,无非是越堆越大的模型和数据,以及动辄 1024 块 TPU,让工程师们不知道如何落地。
机器之心
2019/11/11
8960
2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa
洞见 | 生成对抗网络GAN最近在NLP领域有哪些应用?
AI科技评论按:本文作者莫驚蟄,原文载于知乎,获授权转载。 我来答一答自然语言处理方面GAN的应用 直接把GAN应用到NLP领域(主要是生成序列),有两方面的问题: 1. GAN最开始是设计用于生成连续数据,但是自然语言处理中我们要用来生成离散tokens的序列。因为生成器(Generator,简称G)需要利用从判别器(Discriminator,简称D)得到的梯度进行训练,而G和D都需要完全可微,碰到有离散变量的时候就会有问题,只用BP不能为G提供训练的梯度。在GAN中我们通过对G的参数进行微小的改变
AI科技评论
2018/03/12
1.5K0
洞见 | 生成对抗网络GAN最近在NLP领域有哪些应用?
直播 | 如何让对抗网络GAN生成更高质量的文本?LeakGAN现身说法:“对抗中,你可能需要一个间谍!”(今晚8点直播)
AI科技评论按:自生成式对抗性网络 GANs 出现以来,它和它的变体已经无数次在图像生成任务中证明了自己的有效性,也不断地吸引着越来越多的研究人员加入到提高GANs训练的可控性和稳定性的研究中。 最初,由于其中的一个缺陷,GANs在文本生成方面无法得到有效的应用。得益于该团队之前发表的SeqGAN(https://arxiv.org/abs/1609.05473),GANs在文本生成上有了可能,不过表现并没有图像生成任务中那么突出。主要问题之一就是,生成器 G 从鉴别器 D 获得的反馈中含有的信息量太少,不
AI科技评论
2018/03/14
1.5K0
直播 | 如何让对抗网络GAN生成更高质量的文本?LeakGAN现身说法:“对抗中,你可能需要一个间谍!”(今晚8点直播)
无监督学习︱GAN 在 NLP 中遇到瓶颈+稀疏编码自学习+对偶学习
一年前,网友在 reddit 上提问道,生成式对抗网络 GAN 是否可以应用到自然语言处理上。GAN 理论的提出者,OpenAI 的科学家,深度学习理论奠基人之一 Yoshua Bengio 的得意门生 Ian Goodfellow 博士回答了这个问题:
悟乙己
2019/05/26
1.4K0
【GAN X NLP】自然语言对抗生成:加拿大研究员使用GAN生成中国古诗词
【新智元导读】今日 arXiv 最火论文之一,作者包括著名的《深度学习》(Deep Learning)一书的作者 Aaron Courville。论文用 GAN 解决自然语言处理问题,“在中国诗词数据集上取得目前最好结果”。研究人员表示,他们为训练 GAN 生成自然语言提供了一种直接有效的方法。作者表示,接下来他们想探索 GAN 在 NLP 其他领域的应用,比如非目标导向的对话系统。 对抗生成网络(GAN)是眼下的热词,而使用 GAN 做自然语言处理(NLP)则一直是业界关注的问题。日前,包括“Deep L
新智元
2018/03/28
1.2K0
【GAN X NLP】自然语言对抗生成:加拿大研究员使用GAN生成中国古诗词
GAN的发展系列一(CGAN、DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN)
GAN的发展系列一(CGAN、DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN)
Minerva
2020/06/16
15.6K0
GAN的发展系列一(CGAN、DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN)
【干货】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色
【导读】本文全面系统性梳理介绍了强化学习用于发掘GAN在NLP领域的潜力,请大家阅读。 专知公众号转载已获知乎作者SCUT 胡杨授权。 原文地址:https://zhuanlan.zhihu.com/p/2916880 1. 基础:文本生成模型的标准框架 文本生成(Text Generation)通过 机器学习 + 自然语言处理 技术尝试使AI具有人类水平的语言表达能力,从一定程度上能够反应现今自然语言处理的发展水平。 下面用极简的描述介绍一下文本生成技术的大体框架,具体可以参阅各种网络文献(比如:CSDN
WZEARW
2018/04/08
5.2K0
【干货】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色
seqgan
莫驚蟄 from : https://www.zhihu.com/question/52602529/answer/155743699
CreateAMind
2018/07/24
5300
seqgan
对抗思想与强化学习的碰撞-SeqGAN模型原理和代码解析
1、背景 GAN作为生成模型的一种新型训练方法,通过discriminative model来指导generative model的训练,并在真实数据中取得了很好的效果。尽管如此,当目标是一个待生成的非连续性序列时,该方法就会表现出其局限性。非连续性序列生成,比如说文本生成,为什么单纯的使用GAN没有取得很好的效果呢?主要的屏障有两点: 1)在GAN中,Generator是通过随机抽样作为开始,然后根据模型的参数进行确定性的转化。通过generative model G的输出,discriminative
石晓文
2018/04/11
4.6K3
对抗思想与强化学习的碰撞-SeqGAN模型原理和代码解析
AI技术讲座精选:GAN 在 NLP 中的尝试
【AI100 导读】GAN 是当前最流行的深度学习理论之一,在计算机视觉领域取得了非常棒的效果,然而大家一直关心 GAN 何时可以在自然语言处理领域有所作为?本文带来了一些答案和相关讨论。 GAN 自从被提出以来,就广受大家的关注,尤其是在计算机视觉领域引起了很大的反响,但是这么好的理论是否可以成功地被应用到自然语言处理(NLP)任务呢? 一年前,网友在 reddit 上提问道,生成式对抗网络 GAN 是否可以应用到自然语言处理上。GAN 理论的提出者,OpenAI 的科学家,深度学习理论奠基人之一 Y
AI科技大本营
2018/04/26
1.5K0
AI技术讲座精选:GAN 在 NLP 中的尝试
资源 | 生成对抗网络新进展与论文全集
选自GitHub 参与:蒋思源、吴攀 生成对抗网络(GAN)是近段时间以来最受研究者关注的机器学习方法之一,深度学习泰斗 Yann LeCun 就曾多次谈到 这种机器学习理念的巨大价值和未来前景。在本文中,机器之心总结了 GitHub 上两篇关于 GAN 的资源,其中一篇介绍了 GAN 的一些引人关注的新理论和实践(如 Wasserstein GAN),另一篇则集中展示了大量 GAN 相关的论文。 以下是两篇原文的链接: GAN 理论&实践的新进展:https://casmls.github.io/gene
机器之心
2018/05/07
7860
资源 | 生成对抗网络新进展与论文全集
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
Github项目地址:https://github.com/williamSYSU/TextGAN-PyTorch
AI研习社
2019/06/19
3.4K0
分享总结 | 叶志豪:介绍强化学习及其在 NLP 上的应用
雷锋网 AI 研习社按:当 AlphaGO 横扫之后,越来越多的学者意识到强化学习在人工智能领域所扮演的重要角色。同时随着深度学习的发展,应用深度学习,很多自然语言的传统难题得到突破。另外,引用 David Silver 的一句话:深度学习 (DL)+ 强化学习 (RL) = 人工智能 (AI)。
AI研习社
2018/07/26
1.6K0
分享总结 | 叶志豪:介绍强化学习及其在 NLP 上的应用
不可错过的 GAN 资源:教程、视频、代码实现、89 篇论文下载
【新智元导读】这是一份生成对抗(神经)网络的重要论文以及其他资源的列表,由 Holger Caesar 整理,包括重要的 workshops,教程和博客,按主题分类的重要论文,视频,代码等,值得收藏学习。 目录 Workshops 教程 & 博客 论文 理论 & 机器学习 视觉应用 其他应用 幽默 视频 代码 Workshops NIP 2016 对抗训练 Workshop 【网页】https://sites.google.com/site/nips2016adversari
新智元
2018/03/28
2.4K0
Unpaired Image Enhancement Featuring Reinforcement-Learning-Controlled Image Editing Software
论文题目: Unpaired Image Enhancement——Featuring Reinforcement-Learning-Controlled Image Editing Software
Natalia_ljq
2020/06/03
8900
Unpaired Image Enhancement Featuring Reinforcement-Learning-Controlled Image Editing Software
GAN应用情况调研
在此之前呢,先推荐大家去读一下一篇新的文章LS-GAN(Loss-sensitive GAN)[1]。
CreateAMind
2018/07/24
6870
GAN应用情况调研
生成对抗网络(GAN)系列:WGAN与金融时序(附代码)
过拟合是我们试图将机器学习技术应用于时间序列时遇到的问题之一。出现这个问题是因为我们使用我们所知道的唯一时间序列路径来训练我们的模型:已实现的历史。
量化投资与机器学习微信公众号
2020/06/29
4.3K1
生成对抗网络(GAN)系列:WGAN与金融时序(附代码)
蒙特利尔大学研究者改进Wasserstein GAN,极大提高GAN训练稳定性
生成对抗网络(GAN)是一种强大的生成模型,但是自从2014年Ian Goodfellow提出以来,GAN就存在训练不稳定的问题。最近提出的 Wasserstein GAN(WGAN)在训练稳定性上有极大的进步,但是在某些设定下仍存在生成低质量的样本,或者不能收敛等问题。 近日,蒙特利尔大学的研究者们在WGAN的训练上又有了新的进展,他们将论文《Improved Training of Wasserstein GANs》发布在了arXiv上。研究者们发现失败的案例通常是由在WGAN中使用权重剪枝来对crit
AI研习社
2018/03/29
9780
蒙特利尔大学研究者改进Wasserstein GAN,极大提高GAN训练稳定性
【干货】Google GAN之父Ian Goodfellow ICCV2017演讲:解读生成对抗网络的原理与应用
【导读】当地时间 10月 22 日到10月29日,两年一度的计算机视觉国际顶级会议 International Conference on Computer Vision(ICCV 2017)在意大利威尼斯开幕。Google Brain 研究科学家 Ian Goodfellow 在会上作为主题为《生成对抗网络(Generative Adversarial Networks)》的Tutorial 最新演讲, 介绍了GAN的原理和最新的应用。为此,专知内容组整理了的Goodfellow的slides,进行了解读
WZEARW
2018/04/09
1.5K0
【干货】Google GAN之父Ian Goodfellow ICCV2017演讲:解读生成对抗网络的原理与应用
推荐阅读
干货|GAN for NLP (论文笔记及解读)
2.9K0
2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa
8960
洞见 | 生成对抗网络GAN最近在NLP领域有哪些应用?
1.5K0
直播 | 如何让对抗网络GAN生成更高质量的文本?LeakGAN现身说法:“对抗中,你可能需要一个间谍!”(今晚8点直播)
1.5K0
无监督学习︱GAN 在 NLP 中遇到瓶颈+稀疏编码自学习+对偶学习
1.4K0
【GAN X NLP】自然语言对抗生成:加拿大研究员使用GAN生成中国古诗词
1.2K0
GAN的发展系列一(CGAN、DCGAN、WGAN、WGAN-GP、LSGAN、BEGAN)
15.6K0
【干货】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色
5.2K0
seqgan
5300
对抗思想与强化学习的碰撞-SeqGAN模型原理和代码解析
4.6K3
AI技术讲座精选:GAN 在 NLP 中的尝试
1.5K0
资源 | 生成对抗网络新进展与论文全集
7860
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
3.4K0
分享总结 | 叶志豪:介绍强化学习及其在 NLP 上的应用
1.6K0
不可错过的 GAN 资源:教程、视频、代码实现、89 篇论文下载
2.4K0
Unpaired Image Enhancement Featuring Reinforcement-Learning-Controlled Image Editing Software
8900
GAN应用情况调研
6870
生成对抗网络(GAN)系列:WGAN与金融时序(附代码)
4.3K1
蒙特利尔大学研究者改进Wasserstein GAN,极大提高GAN训练稳定性
9780
【干货】Google GAN之父Ian Goodfellow ICCV2017演讲:解读生成对抗网络的原理与应用
1.5K0
相关推荐
干货|GAN for NLP (论文笔记及解读)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档