腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
稀疏
矩阵乘法
的
Theano梯度
、
、
、
、
我试图在Theano
中
实现一个带有
稀疏
输入
的
自动
编码器
。AsTensorError: ('Variable type field must be a TensorType.', SparseVariable{csr,float64}, Sparse[float64, c
浏览 3
提问于2014-11-20
得票数 2
回答已采纳
1
回答
tensorflow
中
的
稀疏
自动
编码器
成本
函数
、
、
、
我已经阅读了各种
TensorFlow
教程,试图熟悉它
的
工作原理;我开始对使用
自动
编码器
感兴趣。我从使用
Tensorflow
的
模型库
中
的
模型
自动
编码器
开始: 然而,我
的
自动
编码器
给了我看起来像垃圾
的
权重(尽管准确地重新创建了输入图像进一步<
浏览 6
提问于2017-02-23
得票数 10
2
回答
Tensorflow
梯度导致压缩自编码代价不收敛
、
、
、
要构造一个压缩式
自动
编码器
,可以使用具有
成本
函数
的
普通
自动
编码器
。 def cost(X, X_prime): grad = tf.gradients(ys=X_prime, xs然而,
成本
并不低于0.067,这是很奇怪
的
。我对
成本
函数
的</em
浏览 3
提问于2017-11-30
得票数 0
2
回答
Catboost
中
的
大型
稀疏
数据集
我有一个大
的
稀疏
数据矩阵(包字,超过大量
的
条目)。在sklearn模型(如RandomForest )
中
,我可以很容易地将其视为
稀疏
矩阵。我想知道是否有任何有效
的
方法来处理Catboost,这不会导致这种情况吗?例如,任何内部内置
的
特性,比如TFRecords of
Tensorflow
,都可以加载细菌.
浏览 0
提问于2017-10-31
得票数 3
2
回答
分布式PCA或等效
、
、
、
我们通常有相当大
的
数据集可供建模,只是为了给您一个想法:超过六千万行。此外,第9页“缺失数据和矩阵完成”讨论了如何处理
稀疏
/缺失数据。GLRM虽然似乎是我们正在寻找
的
,但我们找不到这些想法
浏览 0
提问于2018-07-11
得票数 5
回答已采纳
1
回答
如何在
tensorflow
层中加入活化调节
有些模型,如
稀疏
自动
编码器
,需要激活正则化,但我找不到一个API来规范层
的
激活。 有什么方法可以添加自定义
的
正则化器吗?还是层激活tf.trainablevariables?我知道
tensorflow
可以在体重上应用l2调节
浏览 2
提问于2017-09-14
得票数 0
回答已采纳
1
回答
叠加
稀疏
自动
编码器
参数
、
、
我工作
的
堆叠
稀疏
自动
编码器
使用MATLAB。有谁能建议堆叠
稀疏
自动
编码器
参数
的
值: L2 Weight Regularization ( Lambda) Sparsity Regularization
浏览 2
提问于2016-12-02
得票数 0
1
回答
用深层神经网络对输入进行套索正则化?
、
、
、
有人能告诉我关于建立神经网络以便对神经网络
的
输入进行拉索正则化
的
建议吗?我要找
的
是一个DNN,它能够计算经典
的
LASSO
成本
函数
优化,并能给我输出用LASSO获得
的
稀疏
权向量。
浏览 3
提问于2020-09-13
得票数 0
回答已采纳
1
回答
用
自动
编码器
权值初始化
tensorflow
中
的
神经网络
、
、
、
、
我使用Python和
Tensorflow
构建了一个
自动
编码器
。为了构建
自动
编码器
,我使用了
Tensorflow
教程,介绍如何构建
自动
编码器
来读取手写数字上
的
MNIST数据集。我用它来寻找CGRA组合
的
特性。 到目前为止,我对“
自动
编码器
代码”进行了结构调整,使其能够在自己
的
数据上使用。我找到了一些特性,并且已经成功地重建了输入,直到出现了某种错误。现在,我尝试使用
浏览 0
提问于2017-01-31
得票数 2
回答已采纳
1
回答
如何向Keras
中
的
自定义层传递与时间相关
的
参数
、
、
我试图在Keras
中
实现一个 (以
Tensorflow
作为后端)。原论文作者建议,在训练
中
应逐步增加中层
的
稀疏
性: 假设我们
的
目标是k= 15
的
稀疏
水平,然后,我们从一个大
的
稀疏
级别(例如k= 100)开始,k-
稀疏
的
自动
编码器
可以训练所有的隐藏单元。然后,我们线性地降低
稀疏
水平从k= 100到k= 15在上半个世纪。这将<e
浏览 0
提问于2018-06-29
得票数 2
1
回答
聚类一组向量
提供一套(m no.关于n维向量,正确
的
无监督
的
聚类方法是什么?向量本质上代表了模式。问题是:是否存在一组向量,表现出与v1相似(不完全相同)
的
模式,对于v2等具有类似的模式?
浏览 0
提问于2019-06-18
得票数 1
2
回答
使用KMeans对大量文本文件进行聚类
、
、
我有一个预解压缩
的
文本文件
的
文件夹(来自图像、pdf、文档等
的
数据)。总共有222mb或27,600个文档。X = vectorizer.fit_transform(documents.values())将“X”导出到文本文件会显示它
的
大小约为7 7gb!pca.fit_transform(vectorized_data)MemoryError 据我所知,我使用
的
是
浏览 2
提问于2019-03-06
得票数 0
3
回答
具有来自UFLDL
的
Tanh激活
的
稀疏
自动
编码器
、
、
、
我一直在研究UFLDL教程(在matlab/octave
中
): 并且已经在不同
的
数据集上尝试了
稀疏
自动
编码器
。我尝试在时间序列数据上运行它,但遇到了问题。由于输入数据具有负值,因此S型激活
函数
(1/1 + exp(-x))是不合适
的
。在tanh中进行替换时,优化程序minfunc (L-BFGS)失败(步长小于TolX)。我将输出层改为线性,输入层保持为sigmoid,但这不是一个更好
的
解决方案。
自动
编码
浏览 2
提问于2012-07-11
得票数 1
1
回答
理解
稀疏
自动
编码器
背后
的
逻辑
、
、
、
我目前正在使用一个
稀疏
自动
编码器
,我所理解
的
是,我们不需要所有隐藏单元为每个输入触发,而是根据输入类型
的
不同一些特定
的
隐藏单元。为此,我们在损失
函数
中
添加了一个
稀疏
正则化项。但我无法理解如何将这个正则化项添加到损失
函数
中
,以帮助我们阻止某些隐藏
的
单位触发?。
浏览 2
提问于2020-05-12
得票数 0
1
回答
理解
自动
编码器
损耗
函数
、
我从来不知道如何计算
自动
编码器
损失
函数
,因为预测有很多维数,而且我一直认为损失
函数
必须输出给定记录
的
单个数字/标量估计。然而,在GitHub上,我最近遇到了一个存储库,它在
TensorFlow
中
实现了一个示例
自动
编码器
,而平方错误实现比我想象
的
要简单得多:世界银行(
TensorFlow
文
浏览 0
提问于2016-12-06
得票数 5
回答已采纳
1
回答
CLDNN (
tensorflow
)
的
降维
、
、
、
我正在尝试用
tensorflow
编写CLDNN
的
实现,就像在
中
那样。我对降维层有一个问题。 据我所知,它是由几个堆叠限制Boltzmann机器(RBM)和工作像一个
自动
编码器
。该层
的
解码器部分只是为了训练
编码器
以减小井
的
尺寸。这意味着您希望将
编码器
的
输出“插入”到下一层
的
输入
中
。我可以定义一个损耗
函数
来训练
自动
编码器
(通过比较解
浏览 5
提问于2016-12-07
得票数 0
回答已采纳
1
回答
Tensorflow
自动
编码器
:如何获得有代表性
的
输出?
、
、
、
、
设置
编码器
层有256个神经元,具有线性
函数
。译码器/输出层具有与线性
函数
输入相同数量
的
神经元。我用大约250000张图像训练了
自动
编码器
。在下面,我展示了测试数据
的
结果,而我并没有用这些数据进行培训。上一行总
浏览 1
提问于2017-02-21
得票数 1
1
回答
变分
自动
编码器
实现
、
、
、
我正在尝试使用python和
tensorflow
实现一个变分
自动
编码器
。我在互联网上看到了各种各样
的
实现。我已经成功地使用了我找到
的
各个部分来创建我自己
的
部分,并使它们与我
的
具体案例一起工作。我在这里用一个
自动
编码器
结束了:( 1)
编码器
具有2个卷积层和1个扁平层,3)和具有
编码器
反向部分
浏览 0
提问于2017-07-02
得票数 1
1
回答
如何计算像素级预测
的
交叉熵
、
、
我在Keras
中
运行了一个FCN,它使用作为损失
函数
。然而,我不确定损失是如何累积
的
。 我知道损失是在像素级别上应用
的
,但是图像
中
每个像素
的
损失加起来就形成了每个图像
的
单个损失吗?此外,每个图像
的
损失是否只是在批处理上求和(或者是其他操作)?
浏览 14
提问于2018-08-22
得票数 0
回答已采纳
1
回答
基于matlab
的
稀疏
自动
编码器
的
无监督训练
、
、
我尝试遵循mathworks提供
的
训练深度
稀疏
自动
编码器
(4层)
的
示例,因此我分别预先训练了
自动
编码器
,然后将其堆叠到一个深度网络
中
。然而,当我试图通过train(deepnet,InputDataset)指令来微调这个网络时,训练会立即停止,并且我会收到一条“性能目标已达到”
的
消息。有没有办法在Matlab
中
以无监督
的
方式训练和微调深度
自动
编码器
网络(不提供标签
浏览 2
提问于2016-10-14
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
继脸书开源PyTorch3D后,谷歌开源3D场景理解库
自编码器是什么?有什么用?这里有一份入门指南
方差正则,稀疏编码器不再崩溃
一文搞懂自编码器及其用途
TensorFlow深度自动编码器入门实践
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券