腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(524)
视频
沙龙
1
回答
python
是否
有
一个
软件包
或
函
数来
训练
带有
堆叠
自动
编码器
的
神经网络
,
如
R
中
的
deepnet
、
、
、
我
有
一个
神经网络
,我在
Python
中使用Keras / tensorflow。我正在试着习惯使用
Python
。 在
R
中
,
有
,它使用来自
deepnet
的
堆叠
自动
编码器
来预
训练
神经网络
。我似乎在
Python
中
找不到类似的函数
或
包。我需要写我自己
的
函数吗
浏览 19
提问于2020-05-11
得票数 1
4
回答
R
中
的
卷积
神经网络
、
、
我没有看到在
R
中使用卷积
神经网络
的
软件包
,有人在
R
中
实现了这种算法吗?
浏览 0
提问于2016-05-25
得票数 9
回答已采纳
1
回答
关于叠加去噪AutoEncoder中下一层
的
查询
、
、
所以我正在
训练
一个
叠加
的
去噪AutoEncoder,每个AutoEncoder
有
3层。我
的
目标是通过使用叠加去噪
的
自动
编码器
对图像进行分类。用于创建图像段
的
方法:
训练
自动
编码器
的
步骤:
浏览 1
提问于2013-12-10
得票数 1
回答已采纳
1
回答
自动
编码器
没有学会减少
、
、
我用
Python
从头开始编写了
一个
神经网络
。我用异
或
问题试过了,它学到了正确
的
东西。因此,我尝试用3个输入(因此还有3个输出)编码
一个
自动
编码器
,以减少一维
中
的
颜色(
r
,g,b)。我尝试过许多不同
的
激活函数和学习速率,但是
自动
编码器
的
误差(用均方误差计算)很高(我得到
的
最低值是0.1),尽管我已经
训练<
浏览 0
提问于2019-02-13
得票数 1
回答已采纳
2
回答
如何在
python
中
组合自组织映射和多层感知器
、
、
、
、
我正在做
一个
python
的
图像识别项目。我在期刊上读到,如果将自组织映射(SOM)执行
的
聚类输入到监督
神经网络
中
,则图像识别的准确性比监督网络本身更高。我自己尝试过,使用SOM执行聚类,然后在每次迭代后使用获胜神经元
的
坐标作为keras
的
多层感知器
的
输入。然而,精确度非常差。 SOM
的
什么输出应该用作多层感知器
的
输入?
浏览 7
提问于2017-03-06
得票数 0
1
回答
构建深度信念
自动
编码降维算法
、
、
我正在处理
一个
大型数据集(大约50K观测x11K特性),我想降低维度。这最终将用于多类分类,因此我想提取有助于分离数据
的
特性。到目前为止,我已经尝试过PCA (线性支持向量机
的
总体精度约为70%)、LDA (
训练
精度很高约为96%,但测试精度约为61%)和
自动
编码器
(分别为13000 - 1000 -136个单元
的
3层密集
编码器
我被要求尝试
一个
深度信念网络(一堆受限
的
Boltzmann机器)来解决这个问题。 到目前为
浏览 0
提问于2020-08-18
得票数 2
回答已采纳
1
回答
有限数据量卷积
神经网络
、
我建立了
一个
用于图像分类
的
卷积
神经网络
,它成功地处理了每个类
的
大量数据,但我希望用特定
的
数据库来实现它,每个类
的
可用数据量有限(例如,可以是1、2、3)。同一模型
的
精度将非常低,而不是我使用
的
数据增强,批归一化,和退出。如何在低数据量
的
情况下提高系统
的
精度,
是否
有
专门针对这种情况
的
模型,
或
对我
的
系统进行任何其他
的</em
浏览 0
提问于2019-06-19
得票数 0
回答已采纳
1
回答
基于递归
神经网络
的
时间序列预测
、
、
、
、
我使用
一个
来预测一天
的
租金数量,给出输入。我将使用2011年
的
数据进行培训,2012年
的
数据进行验证。我成功地建立了
一个
线性回归模型,但是现在我正在尝试用递归
神经网络
来预测时间序列。数据集
有
10个属性(如月、工作日、温度、湿度、风速),所有属性都是数字,尽管属性是day (星期日: 0,星期一:1)。我想我需要
一个
矩阵来连接输入层到隐层,
一个
矩阵来连接隐层到输出层,另
一个
矩阵用来连接相邻时间步骤
中
<
浏览 5
提问于2016-05-12
得票数 0
3
回答
什么是
自动
编码器
?
、
、
、
我
的
重点是深生成模型,特别是
自动
编码器
和变分
自动
编码器
(VAE)。 我试图理解这个概念,但我
有
一些问题。到目前为止,我已经了解到,
一个
自动
编码器
接受
一个
输入,例如
一个
图像,并希望将这个图像缩小为
一个
潜在空间,其中应该包含数据集
的
基本特征,通过编码操作,然后,通过解码操作,它重新构造由于编码部分而丢失了一些信息
的
图像在此基础上,利用
一个</
浏览 0
提问于2020-08-17
得票数 7
回答已采纳
2
回答
如何利用AI/ML/NLP提取句子
中
单词之间
的
关系
、
、
、
让我们举
一个
例子: 在所有的三句话
中
,我想分别摘取被监视
的
东西(坏
的
、死
的
、死
的
)。我应该用什么方法来实现这一点呢?
浏览 0
提问于2021-01-13
得票数 0
1
回答
如何以最佳方式对复杂数据进行
神经网络
编码?
、
位向量对于每个记录具有不同
的
长度,对于数字向量也是如此。每个记录
的
数值数是所有记录
的
常量。 输出为2个数字。它们
的
值(均在0.0,1.0范围内)用于搜索算法
中
的
评估/适应度函数近似。那么,我
的
问题是:如何为
神经网络
表示/规范化这些数据?特别是,
是否
有
一种(棘手
的
)方法来简洁地表示位向量?它
的
长度可达几千。
浏览 1
提问于2015-02-21
得票数 0
回答已采纳
2
回答
基于
神经网络
的
外汇市场预测
我想使用ANN
自动
交易货币,最好是美元/欧元
或
美元/英镑。我知道这很难,而且可能不是直截了当。我已经读过一些论文,做了一些实验,但运气不佳。我想征求专家
的
意见,使这项工作。根据这些数据,创建了
一个
数据集,其中每个条目按顺序由n个出价值组成。 用这些数据
训练
具有n-1输入
的
神经网络
,输出是预测
的
第n个投标值。ANN
有
n-1输入神经元、(n-1)*2 +1隐藏神经元和1个输出神经元.输入层有线性TF,隐藏层
有<
浏览 0
提问于2014-07-02
得票数 10
3
回答
比较两个录制
的
语音
、
、
我需要找到一些文献如何比较实时录制
的
声音(从麦克风)与预先录制
的
声音数据库。在比较之后,我需要输出它
的
匹配百分比。 我正在研究音频指纹识别,但我无法从任何关于这种实现
的
文献
中
得出任何结论。这里
有
什么专家可以很容易地指导我实现这一点吗?
浏览 5
提问于2015-01-12
得票数 8
1
回答
自动
编码器
特征提取平台
、
、
、
我正在处理
一个
大型数据集(大约55K
的
观测x11K特征),并试图将维度降到大约150个特征。到目前为止,我尝试了PCA,LDA和
自动
编码器
。我尝试
的
自动
编码器
是12000-8000-5000-100-500-250-150-,所有的层都是紧密
的
乙状结肠激活,除了最后一层,它有
一个
线性激活,以便从输入复制连续
的
数据。不管学习速度如何,在10-15个时代之后,
自动
编码器
的</e
浏览 0
提问于2020-08-13
得票数 1
回答已采纳
3
回答
GNU是
神经网络
编码
的
理想场所吗?
、
、
undefined被用于编写数值算法(
如
机器学习问题)
的
简单性和编译速度,但我想知道
是否
也可以使用它对
神经网络
进行更快
的
编码。
浏览 0
提问于2020-06-01
得票数 2
18
回答
神经网络
原型设计
、
根据您
的
经验,实现人工
神经网络
原型
的
最有效方法是什么?关于 (免费,但我没有用过它)
或
Matlab (非免费)
有
很多炒作,另
一个
可能
的
选择是使用像C++/Java/C#这样
的
语言。这个问题主要针对那些试图测试一些
神经网络
架构
或
学习算法的人。 如果你选择使用与上述三种语言不同
的
编程语言,你能告诉我它们
的
名称和关于你
的
选择
的
一些解
浏览 6
提问于2009-12-04
得票数 23
回答已采纳
2
回答
使用Pybrain检测恶意PDF文件
、
、
我正在尝试制作
一个
人工
神经网络
来分类
一个
PDF文件,通过利用在contagiodump上发现
的
26,000个PDF样本(包括干净
的
和恶意
的
)来将PDF文件分类为恶意
或
干净
的
。对于每个PDF文件,我使用PDFid.py解析该文件并返回42个数字
的
向量。然后,这26000个向量被传递到pybrain
中
;50%用于
训练
,50%用于测试。这是我
的
源代码: 在对尺寸和其他参数进行了大量调整
浏览 0
提问于2013-10-03
得票数 1
4
回答
开源
神经网络
库
、
、
我正在寻找
一个
开源
的
神经网络
库。到目前为止,我已经研究了FANN、WEKA和OpenNN。其他
的
是我应该看
的
吗?当然,标准是文档、示例和易用性。
浏览 4
提问于2012-07-14
得票数 64
回答已采纳
4
回答
一种新的人脸识别数据流聚类方法
、
我
有
一个
时间序列数据集
的
来袭脸数据。每个数据点是
一个
长256
的
面部特征向量,表示
一个
人
的
面部特征(它是由修改后
的
RESNET生成
的
)。紧密相连
的
特征被视为属于同
一个
人。我最近转向了HDBSCAN,也取得了很好
的
效果。 我
的
问题是: DBSCAN和HDBSCAN要求我一次将所有数据放在一起。我经常有>200000个特性,这可能是
一个
非常大<e
浏览 0
提问于2020-06-12
得票数 4
回答已采纳
7
回答
时间序列预测(最终使用
python
)
、
、
时间序列预测/回归
有
哪些算法?
浏览 17
提问于2010-08-27
得票数 27
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
各种编程语言的深度学习库整理大全
各种编程语言的深度学习库整理
TensorFlow深度自动编码器入门实践
DLL:一个炙手可热的快速深度神经网络库
基于深度学习的经典自动编码器优化
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券