腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Keras
中
,
有
状态
LSTM
中
的
一个
批次
的
样本
之间
是否
保
留了
状态
?
、
、
、
、
step 3 from time series 3 [[9], [7], [2]] # step 1 to step 3 from time series 32 ] 以及包含该
批次
中
的
32个时间序列
中
的
每
一个
的
标签
的
Y = [A, A, B, …, B]。因为我已经拆分了时间序列,所以我使用
有
状态
模型,以便为X_2保存来自X_1
的
状态
。 我再次运行mo
浏览 9
提问于2019-01-30
得票数 0
回答已采纳
2
回答
每批
有
一个
序列
的
角点截断反向传播
、
、
、
如果我正确理解,要在
keras
中
执行TBPTT,我们必须将我们
的
序列分割成k个时间步骤
的
较小部分。要重复使用
LSTM
的
状态
,我们必须使用
有
状态
参数,根据
keras
的
文档: 您可以将RNN层设置为“
有
状态
的
”,这意味着为
一个
批
中
的
样本
计算
的
状态</e
浏览 0
提问于2018-11-08
得票数 9
1
回答
如何处理
LSTM
模型
中
的
某些时间序列?
、
、
、
、
我是
一个
新
的
keras
用户,我想很容易地理解如何构建
一个
lstm
模型。
在
我
的
数据
中
,我
有
很多用户,它们
有
很多序列,如下所示: X Labels我已经为
一个
浏览 3
提问于2017-06-10
得票数 0
回答已采纳
3
回答
为什么要为tf.
keras
.layers.
LSTM
设置return_sequences=True和stateful=True?
、
、
、
在
rnn示例
中
,我找到了以下代码: model = tf.
keras
.Sequential([ batch_input_shape=[batch_size, None]), tf.
keras</em
浏览 0
提问于2019-03-22
得票数 8
1
回答
使用
LSTM
预测二进制分类-精度停留在50% -如何使用
状态
、
、
、
、
我试图使用
LSTM
模型进行二进制分类;但是,当我训练该模型时,损失保持
在
0.69左右(即。- -\ln(0.5))和0.5
的
准确度,这表明这个模型并不是在学习,因为这些是随机猜测所期望
的
数字。我试着玩学习速度,改变单元数量,把
LSTM
放在一起,但是我觉得我错过了一些关于
状态
的
使用,但我不确定是什么。我
的
时间序列是t = [x_0, ..., x_N]格式
的
,我希望使用
一个
跨距10
的
滚动窗口来使用10
浏览 0
提问于2019-05-02
得票数 2
1
回答
理解
有
状态
LSTM
、
、
、
、
我正在RNNs/
LSTM
上学习这个,我很难理解
有
状态
的
LSTM
。我
的
问题如下:在上
的
Keras
文档
中
,我发现批处理
中
i-th位置
中
的
样本
的
隐藏
状态
将作为下一批
中
i-th位置
中
的
样本
的
输入隐藏<
浏览 0
提问于2017-01-17
得票数 19
1
回答
keras
差异无
状态
和
有
状态
、
、
、
、
我试图理解
Keras
中
的
LSTM
层
的
概念。我只想确认一下
LSTM
的
一些行为,看看我
是否
正确地理解了它。假设我
有
1000个
样本
,这个
样本
有
一个
时间步骤,当这
是否
与具有1000个时间步骤
的
一个
样本
和
一个
批次
大小为1
的</
浏览 0
提问于2018-10-26
得票数 4
回答已采纳
1
回答
无
状态
的
LSTM
和普通
的
前馈神经网络
有
什么区别?
、
、
、
据我所知,
LSTM
的
全部目的是让网络在数据
中
建立长期
的
依赖关系,即现在发生
的
事件可能在某种程度上是由过去某个时候发生
的
事情决定
的
,这些数据可能不是当前正在呈现
的
批数据,而是以前
的
许多序列或批。因此,我理解
有
状态
的
LSTM
这样做,网络将保留
状态
直到reset_states()被调用。但是对于无
状态
的
LST
浏览 0
提问于2018-08-03
得票数 10
回答已采纳
1
回答
基于
LSTM
的
时间序列预测
、
、
、
、
我正在使用 ()
在
一些syslog/网络日志数据上应用
LSTM
网络。他是个大师!据我所知- 一批数据是训练数据集中固定大小
的
行数,该数据集定义
在
更新网络权重之前要处理多少模式。模型以ba
浏览 2
提问于2017-05-04
得票数 1
1
回答
理解明显不同
的
Keras
调用
、
、
在
中
,我没有看到像batch_size和input_shape这样
的
争论。但是,我
在
model.add(
LSTM
(batch_size, input_shape=(time_steps, features)))媒体文章中看到了类似于这些
的
声明,以及使用model.add(
LSTM
(4, batch_input_shape=(batch_size, look_back, 1), stateful=True))
的
。( Q2)我无法理解
的
另
浏览 0
提问于2018-10-03
得票数 0
回答已采纳
1
回答
用LSTMs对单元素序列进行预测
、
、
、
、
我正在尝试将强化学习应用到
一个
基于圆形
的
游戏环境
中
。每一轮我都会得到
一个
独立
的
/接近马尔可夫
的
状态
,并且必须为世界
的
进步提供
一个
行动。因为
有
一些长期
的
策略(开发资源"A",等待几轮开发,使用资源"A"),我正在考虑
在
我
的
神经网络中使用
LSTM
层。
在
培训期间,我可以向网络
中
浏览 1
提问于2019-11-20
得票数 2
回答已采纳
1
回答
RNN和CNN与千层面的结合
、
、
、
我试图运行
一个
1D-CNN对10s段脑电数据,然后涵盖
一个
时间连接
之间
的
片段使用RNN。L.DimshuffleLayer(network, (0, 2, 1))但据我理解,RNN现在只涉及 sequence_length
中
的
,而不包括
之间
的
不同批,对吗?如何获得段
之间
的
时间连接?
浏览 4
提问于2017-04-04
得票数 0
回答已采纳
1
回答
使用
LSTM
进行预测并使用最终隐藏
状态
、
、
、
、
假设我
有
10个维度为( 10 , 50 ,2)
的
独立时间序列,其中10是
样本
数,50是时间步数,2是特征数。如果我将这个时间序列划分为training with size (10,35,2)和test (10,15,2),其中我使用test作为我
的
预测
的
验证集(以了解训练
的
网络预测
有
多好),由于
lstm
在这种情况下是无
状态
的
,因此
在
训练期间
的
批次
之间</e
浏览 14
提问于2021-01-08
得票数 0
1
回答
LSTM
中
的
状态
流
、
我读到
LSTM
的
内部
状态
如下: 它总是
在
批处理
中
传递,所以从第
一个
示例
的
最后
一个
时间戳到第
一个
i+1st。如果
LSTM
是
有
状态
的
,那么
状态
将在批间传递,因此对于所有索引i,batch_ki
的
最后
一个
时间戳处
的
内存被传递给batch_{k+1}i
的
第
一个
时
浏览 0
提问于2018-03-14
得票数 0
回答已采纳
1
回答
是否
可以通过梯度校正
LSTM
中
的
实际单元
状态
?
为什么
在
LSTM
中
我们计算梯度w.r.t权值,而不是w.r.t细胞
状态
?那么,为什么不更正存储
在
单元格
浏览 0
提问于2018-02-03
得票数 1
回答已采纳
5
回答
keras
什么时候重置
LSTM
状态
?
、
、
我读过各种各样
的
关于它
的
文章,似乎没有人回答这个非常基本
的
问题。它总是模棱两可: model.fit(X_train, y_train,
浏览 4
提问于2017-05-10
得票数 54
回答已采纳
1
回答
理解
Keras
LSTM
:批处理大小和
状态
的
作用
、
、
、
资料来源 还有其他
的
线程,比如和,它们并没有完全解释我要找
的
东西。当深入研究[]和[]
的
例子时,Jason总是将他
的
时间序列分割成几个只包含
一个
时间步骤
的
样本
(在他
的</e
浏览 1
提问于2018-01-28
得票数 38
回答已采纳
1
回答
具有滑动窗口
的
Keras
状态
与前馈网络
、
、
在
Keras
的
LSTM
实现
中
的
默认模式(
有
状态
=假)
中
,批处理
中
的
所有
样本
都是独立
的
,
状态
不会从
一个
样本
传播到下
一个
样本
。根据我
的
理解,输入序列长度(L)是保持
LSTM
状态
的
唯一方法。但从理论上讲,这种操
浏览 1
提问于2017-05-26
得票数 6
2
回答
避免
在
少量数据上使用大型
LSTM
网
、
关于C数据集,
有
广泛
的
文献,包括经典
的
(非DL) ML技术和基于DL
的
方法.几年前,基于
LSTM
的
网络展示了
有
希望
的
结果(参见长期短期记忆网络,剩余寿命估算,郑等人,2017年),我正在尝试复制这些结果
在
本文中,他们使用了两个隐藏
的
LSTM
层,每个64个单元,两个完全连接
的
层,每个层
有
8个神经元(~55000个参数)。LSTMs会产生大量
的</
浏览 0
提问于2020-08-19
得票数 2
回答已采纳
1
回答
有人能解释一下
Keras
LSTM
层
的
以下参数吗?
、
、
keras
.layers.
LSTM
(units,stateful=False,unroll=False) 什么单位,
有
状态
和展开代表这里??
浏览 0
提问于2019-03-22
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
RNN循环神经网络、LSTM长短期记忆网络实现时间序列长期利率预测
使用Keras进行深度学习:(六)GRU讲解及实践
一个用来帮助作者进入心流状态的写作工具。如果你在写作过程中停止打字超过五秒钟,那么你之前写下的所有内容都会消失。
可视化LSTM网络:探索“记忆”的形成
seq2seq模型实例:用Keras实现机器翻译
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券