首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

学界 | 谷歌大脑提出对抗正则化方法,显著改善自编码器的泛化和表征学习能力

无监督学习的目标之一是不依靠显式的标注得到数据集的内在结构。自编码器是一种用于达成该目标的常见结构,它学习如何将数据点映射到隐编码中——利用它以最小的信息损失来恢复数据。通常情况下,隐编码的维度小于数据的维度,这表明自编码器可以实施某种降维。对于某些特定的结构,隐编码可以揭示数据集产生差异的关键因素,这使得这些模型能够用于表征学习 [7,15]。过去,它们还被用于预训练其它网络:先在无标注的数据上训练它们,之后将它们叠加起来初始化深层网络 [1,41]。最近的研究表明,通过对隐藏空间施加先验能使自编码器用于概率建模或生成模型建模 [18,25,31]。

02

Nat.Commun | 使用深度计数自编码器对单细胞RNA序列去噪

今天给大家介绍德国亥姆霍兹慕尼黑中心计算生物学研究所的Fabian J. Theis教授等人发表在Nature Communications上的一篇文章 “Single-cell RNA-seq denoising using a deep count autoencoder” 。单细胞RNA测序 (scRNA-seq) 使研究人员能够以细胞分辨率水平研究基因表达。然而,由于扩增和“dropout”事件产生的噪声可能会阻碍下游分析,因此需要针对越来越数量庞大却稀疏的scRNA-seq数据进行去噪。本文提出了一种深度计数自编码器网络 (DCA) 来去除scRNA-seq数据集的噪声。DCA考虑计数分布、数据的过分散和稀疏性,使用负二项噪声模型 (有或没有零膨胀) 捕获非线性基因-基因依赖关系。DCA模型与细胞的数量成线性关系,因此,可以应用于数百万个细胞的数据集。DCA改进了使用模拟和真实数据集的多种典型的scRNA-seq数据分析。DCA在数据插补的质量和速度上都优于现有的方法,增强了生物发现能力。

02

自动编码器及其变种

三层网络结构:输入层,编码层(隐藏层),解码层。   训练结束后,网络可由两部分组成:1)输入层和中间层,用这个网络对信号进行压缩;2)中间层和输出层,用这个网络对压缩的信号进行还原。图像匹配就可以分别使用,首先将图片库使用第一部分网络得到降维后的向量,再讲自己的图片降维后与库向量进行匹配,找出向量距离最近的一张或几张图片,直接输出或还原为原图像再匹配。   该网络的目的是重构其输入,使其隐藏层学习到该输入的良好表征。其学习函数为 h(x)≈x h ( x ) ≈ x h(x) \approx x。但如果输入完全等于输出,即 g(f(x))=x g ( f ( x ) ) = x g(f(x)) = x,该网络毫无意义。所以需要向自编码器强加一些约束,使它只能近似地复制。这些约束强制模型考虑输入数据的哪些部分需要被优先复制,因此它往往能学习到数据的有用特性。一般情况下,我们并不关心AE的输出是什么(毕竟与输入基本相等),我们所关注的是encoder,即编码器生成的东西,在训练之后,encoded可以认为已经承载了输入的主要内容。   自动编码器属于神经网络家族,但它们与PCA(主成分分析)紧密相关。尽管自动编码器与PCA很相似,但自动编码器比PCA灵活得多。在编码过程中,自动编码器既能表征线性变换,也能表征非线性变换;而PCA只能执行线性变换。

01
领券