腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
和
不
使用
最终
密集
层
训练
多
对
多有
状态
LSTM
、
、
、
我正在尝试在Keras中
训练
一个包含
LSTM
的递归模型,用于回归目的。我想在网上
使用
这个模型,据我所知,我需要
训练
一个有
状态
的
LSTM
。我正在尝试
训练
和
比较两个模型: A)一个有128个输入
和
3个输出的简单
LSTM
;B)一个有128个输入
和
100个输出的简单
LSTM
+一个有3个输出的
密集
层
; 对于模型A),我编写了以下代码: # Model,模
浏览 13
提问于2019-09-26
得票数 1
回答已采纳
1
回答
TimeDistributed
层
可以用于
多
对
一的
LSTM
吗?
、
、
、
、
在Keras中,我发现许多人在
训练
多
对
一
LSTM
模型时将“返回序列”指定为False。我想知道我是否可以为每个timestep单元格
使用
TimeDistributed
层
,然后
使用
上面的
密集
层
来获得输出?
浏览 10
提问于2018-07-26
得票数 0
1
回答
RNN的中间隐藏
状态
有什么好用?
、
、
、
因此,我以三种不同的能力
使用
了RNN/
LSTM
:
多
对
多
:
使用
最后一
层
的每个输出来预测下一
层
。可以是分类或回归。
多
对
一:
使用
最终
的隐藏
状态
执行回归或分类。一
对
多
: 获取一个潜在空间向量,可能是
LSTM
编码器的
最终
隐藏
状态
,并
使用
它生成一个序列
浏览 46
提问于2021-02-28
得票数 0
回答已采纳
1
回答
如何在Keras中获得序列模型的最后输出?
、
、
、
、
我在Keras中
使用
return_sequences=True
和
TimeDistributed包装器在最后一个
密集
层
上
训练
了多到
多
序列模型:model.add(Embedding(input_dim=vocab_size, output_dim=50))model.addTimeDistributed(Dense(vocab_size,
浏览 3
提问于2019-03-07
得票数 2
1
回答
基于Keras的情感分类器
训练
、
、
我
使用
keras (后端tensorflow)
对
亚马逊评论中的情感进行分类。________________________________________________________________________________
浏览 0
提问于2018-03-20
得票数 0
回答已采纳
1
回答
基于stateful=True的多层
LSTM
网
、
、
model.add(
LSTM
(18, return_sequences=True,batch_input_shape=(batch_size,look_back,dim_x), stateful=True))model.add(
LSTM
(50,return_sequences=False,stateful=False))model.add(Dense(1, activation='linear')) 因为如果我的第一个
LSTM</e
浏览 3
提问于2018-10-26
得票数 2
回答已采纳
1
回答
LSTM
+TimeDistributed的损耗计算(
密集
...)
层
我有一个
使用
TimeDistributed的简单顺序模型(
密集
...)作为
LSTM
层
之后的最后一
层
。我正在以20个时间步长的序列对时间序列数据进行
训练
。mean_absolute_error(y_true, y_pred):(来自)
LSTM
最终
结果应该是一组帧参数,预测序列中的下一步。 我正在尝试确认标准损失函数是否真的计算输出中
浏览 1
提问于2017-08-19
得票数 3
1
回答
多层密层叠加
LSTM
、
、
Andrew通过相互叠加递归
层
来讨论深度RNN体系结构。然而,他指出,由于结构中已经复杂的时间依赖计算,这些通常限制在2或3个递归
层
。但他补充说,人们通常会在这些递归
层
(如从a3<1>延伸出来的蓝色框)后面添加“一堆没有水平连接的深层层”。我想知道他是简单地说要把稠密的
层
堆在层叠的层层之上,还是更复杂呢?在Keras中是这样的:model.add(keras.layers.
LSTM
(100, return_sequences=True, b
浏览 0
提问于2019-07-30
得票数 1
1
回答
网络宽度比输出大小小吗?
、
、
、
、
我也想
使用
LSTM
,它需要大量的时间/空间等来
训练
,而有一个或几个2048或更大的
LSTM
层
连接到
密集
的
层
将需要很大的空间/时间来
训练
。但也许这就是该走的路? 有人
对
这类问题有经验吗?谢谢!
浏览 0
提问于2019-05-07
得票数 1
回答已采纳
2
回答
在
训练
和
预测
多
类时间序列分类时保存
LSTM
隐藏
状态
、
、
、
、
我正在尝试
使用
LSTM
对时间序列数据进行
多
类分类。有37个可能的类。我想
使用
一个只有
LSTM
和
激活
层
的Keras模型来
对
输入数据进行分类。 在
LSTM
的每个步骤中,我还需要通过模型传递的所有
训练
数据
和
测试数据的隐藏
状态
(而不仅仅是
最终
状态
)。下
浏览 31
提问于2019-08-23
得票数 1
回答已采纳
1
回答
ValueError:检查目标时出错:要求dense_13具有形状(None,6),但得到形状为(6,1)的数组
、
、
我正在用
训练
数据
训练
一个分类网络,它的X.shape = (1119,7)
和
Y.shape = (1119,6)。下面是我的简单Keras网络,输出dim为6(标签的大小)。返回的错误在代码下面 hidden_size = 128model.add(Embedding(7, hidden_size))model.add(
LSTM
(hidden_size, return_seque
浏览 17
提问于2019-03-13
得票数 0
1
回答
虽然培训是100%,但是无法提高验证的准确性,以及如何将从视频中提取的图像提供给深度学习模型。
、
、
、
、
我正在
使用
200亿个jester数据集建立一个手势识别系统。目前,我只在4节课上工作。数据集包括从视频中以12帧/秒的速度提取的图像。我建立了两个模型,3D-CNN
和
CNN-
LSTM
,但只
使用
角角
和
Tensorflow获得了大约25-30%的精度。model.add(Dense(nb_classes, kernel_initializer='normal')) CNN-
LS
浏览 0
提问于2018-11-19
得票数 2
回答已采纳
1
回答
如何为RNN的每个时间戳建立一个
密集
层
,并将每个
密集
的输出反馈到RNN中?
、
如图所示,我需要获取每个
Lstm
时间戳的
状态
,并将它们应用于
密集
层
以进行有监督的学习。然后将该
密集
层
的输出与
Lstm
的下一时间戳的
状态
一起
使用
。通常,我希望
对
RNN的每个步骤应用监督学习,并将输出反馈到下一个时间戳。我如何在Keras中实现这一点?
浏览 0
提问于2017-06-12
得票数 2
1
回答
如何在字嵌入
层
前应用平滑技术(过采样)
、
、
、
如何在
LSTM
中应用词嵌入
层
前的平滑算法。我有一个文本二值分类的问题(好(9500)或坏(500个),总共有10000个
训练
样本和它的不平衡
训练
样本),意思是当我
使用
LSTM
和
预先
训练
的单词嵌入(每个单词的100个维空间),所以每个
训练
输入都有一个id(当文本描述小于50个单词,当描述超过50个字符时,每个
训练
输入有一个id's (50个id的总数,当文本描述小于50个单词,并且当描述超过50个字符时被修剪
浏览 0
提问于2018-11-19
得票数 6
1
回答
关于Keras的
LSTM
网络的几个问题
、
、
考虑到这种基于
LSTM
的RNN:model = Sequential() model.add(
LSTM
(30, activation))是从
密集
层
连接到
最终
隐藏
层
( 10 *10 =100个连接)的10个输出的每一个输出。如果变量“”设置为False (对于两个
层<
浏览 4
提问于2020-07-30
得票数 0
1
回答
Keras:编译后更改
LSTM
参数return_sequences=True
、
、
我想
使用
一个(2
层
)预
训练
的
LSTM
模型,并且我想在最后一个
密集
层
之前添加一个新的
LSTM
层
。所以我要添加的
层
将是第三
层
。因为预
训练
模型的第二个
LSTM
已经设置了return_sequences=True。我无法添加第三个
LSTM
层
。如何
使用
LSTM
更改预
训练
模型的任何
层
的配
浏览 10
提问于2019-09-18
得票数 1
1
回答
大神经网络比小神经网络收敛到更大的误差。
、
、
、
我正在
使用
Python的大Keras库来
训练
神经网络。我
对
一种我不明白的行为感到好奇。这一切为什么要发生?我希望更大的模型只是
训练
时间更长,但收敛到较小或相同的误差。 我
对
模型进行了超优化,尝试了不同数量的失学正则化,并让它有足够的时间进行
训练
。我试验了大约10-20k参数、5
层
、10M数据样本
和
20-100个低LR历元的模型。模型包含
密集
的有时是
LSTM
层</
浏览 0
提问于2018-01-31
得票数 0
1
回答
创建CoreML LRCN模型
、
、
、
、
首先,我在Keras中
使用
Tensorflow后端构建了一个模型,该模型在时间分布式包装器中
使用
卷积
层
。在卷积部分之后,单个
LSTM
层
连接到
密集
层
作为输出。我们的目标是创建一个
多
对
多
的结构,在填充图像序列中
对
每个项目进行分类。我将在下面发布模型的代码。 我
训练
和
部署这个网络的计划可能会引发其他问题,但如果它们造成麻烦,我将另行发布一篇文章。它涉及到
使用</
浏览 7
提问于2018-01-29
得票数 3
回答已采纳
1
回答
不同时间范围的
LSTM
、
、
我想在这里
使用
LSTM
。由于
LSTM
网络的
训练
输入具有类似于[samples, time steps, features]的形状,因此不能对来自不同时间框架的数据进行拟合(这是可能的,但是将它们放在特征轴上可能不会有效)任何暗示
和
洞察
浏览 0
提问于2021-06-17
得票数 1
2
回答
Keras
LSTM
总是不适合
、
、
、
、
我正在尝试
使用
Keras
和
Tensorflow后端
训练
LSTM
,但它似乎总是不适合;损失和验证损失曲线有一个初始下降,然后非常快地变平()。我试着添加更多的
层
,更多的神经元,没有丢失,等等,但即使在接近过拟合的地方也无法获得,而且我确实有很好的数据(在每秒100个样本的情况下,几乎4小时,我已经尝试下采样到50个/秒)。decay=0.9 h1 = 120h3 = 340
浏览 0
提问于2018-01-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何用深度学习将前端设计模型自动转换为代码?
深度学习在新闻情感分析中的应用
算法有没有价值观?知乎内容推荐算法解析
前端慌不慌?用深度学习自动生成HTML代码
OpenAI发布高度优化的GPU计算内核—块稀疏GPU内核
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券