腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Keras
LSTM
从
各自
的
序列
恢复
状态
、
、
、
、
我有一个任务,训练数据来自几个长
序列
。我想用随机选择
的
序列
进行训练,但不想改变这些
序列
中
的
顺序(因为可能存在长期依赖关系)。我认为这意味着选择一个
序列
号,
从
该
序列
中
恢复
以前
的
状态
,训练,保存该
序列
中
的
新
状态
,清洗并重复。 当你训练一个用
keras
的
LSTM
创建
的
层时,有没有办
浏览 3
提问于2017-07-27
得票数 0
回答已采纳
1
回答
[
Keras
][
LSTM
]形状失配引起
的
误差
、
、
)y = np.array([[[0.2],[0.3],[0.4]],[[0.3],[0.4],[0.5]]])以下是我
的
Keras
代码model.add(
LSTM
(50, activation='relu', batch_input_shape=(2, 3, 2))) # model.add(
LSTM
(50, activation='relu', batch_
浏览 0
提问于2019-05-12
得票数 1
1
回答
Keras
中共享
LSTM
层中
的
状态
持久性
、
、
、
、
我试图在
Keras
模型中使用一个具有
状态
的
共享
LSTM
层,但是内部
状态
似乎被每一次并行使用所修改。这就提出了两个问题: 下面的代码举例说明了共享
浏览 3
提问于2019-12-11
得票数 1
1
回答
如何处理
LSTM
模型中
的
某些时间
序列
?
、
、
、
、
我是一个新
的
keras
用户,我想很容易地理解如何构建一个
lstm
模型。实际上,我做了一个
lstm
输入,例如(批处理大小、时间步长、特征),其中批处理大小等于1,因为我有一个用户,而时间步骤等于
序列
和特征
的
数量等于
序列
长度。在定义
LSTM
时,是否应该将有
状态
选项设为True? 我已经为一个用户获得了很好
的
性能。我想对所有的用户使用同样
的
方法。但我不知道如何为所有用户构建输入。例如,我想学习旧
的
浏览 3
提问于2017-06-10
得票数 0
回答已采纳
1
回答
在
keras
API中为
LSTM
单元提供输入
、
、
我正在阅读关于深度学习中
的
LSTM
的
文章。来自Andrew Ng教授
的
LSTM
课程,每个
LSTM
单元有三个输入。输入是来自前一个单元
的
单元
状态
,即"c“上标(t-1),以及
LSTM
单元"a”超级脚本(t-1)和输入x超级脚本(t)
的
输出。
LSTM
单元
的
输出是当前单元
状态
,即"c“上标(t)和
LSTM
单元"a
浏览 11
提问于2019-07-15
得票数 0
回答已采纳
1
回答
理解
LSTM
Keras
实现
、
、
所以我知道什么是
LSTM
单位。但是我很难理解
Keras
框架中
的
实现/功能。model.add(
LSTM
(5, ...))这是否意味着,我一个
LSTM
单元,它被展开成五个时间步骤? 我认为第二个答案是正确
的
,因为我看到
的
很多模型都没有什么意义。当我有一个大小为5
的
LSTM
层作为第一个隐藏层时,这是否意味着我
的
输入应该是一个
浏览 0
提问于2019-11-18
得票数 0
1
回答
Keras
-如何获得GRU细胞
状态
?
、
、
、
对于
LSTM
,我们可以检索最后
的
输出和最后
的
单元格
状态
,如下所示其中state_h是最后
的
输出
序列
;输出-1= STATE _h,state_c是,是
LSTM
的
最后一个单元格
状态
。但是,对于GRU,它没有这样
浏览 0
提问于2019-05-02
得票数 2
3
回答
为什么要为tf.
keras
.layers.
LSTM
设置return_sequences=True和stateful=True?
、
、
、
在rnn示例中,我找到了以下代码: model = tf.
keras
.Sequential([ batch_input_shape=[batch_size, None]), tf.
keras
.layers.
LSTM<
浏览 0
提问于2019-03-22
得票数 8
1
回答
为什么
Keras
不能在
lstm
层中返回单元
状态
的
完整
序列
?
、
、
、
、
我正在尝试实现一个注意力机制,其中我需要单元
状态
的
完整
序列
(就像隐藏
状态
的
完整
序列
一样)。但是,
Keras
LSTM
仅返回最后一个单元格
状态
: output, state_h, state_c = layers.
LSTM
(units=45, return_state=True, return_sequences=True) state_c具有shape (batch size, 1, 45),其中输出(即全
序
浏览 14
提问于2020-09-22
得票数 2
2
回答
如何为
Keras
中
的
LSTM
(tensorflow)正确地格式化我
的
2D输入和输出?在输入3D并输出一个热编码时产生错误
、
、
、
、
对于一个类项目,我们必须获取一个2D数据集,并使用
LSTM
神经网络进行预测。我们把它比作一个简单
的
DNN。我
的
x_train.shape是(2340, 590),y是(2340,)。rnn_model =
keras
.Sequential([
keras
.laye
浏览 0
提问于2019-07-09
得票数 4
1
回答
Tensorflow
Keras
-叠加
LSTM
层时
的
误差
、
、
、
我有以下
的
层序。在混合中添加额外
的
LSTM
会产生以下错误,我无法真正理解。tf.
keras
.layers.
LSTM
(64), tf.
keras
.layers.Dropout(0.25), tf.
keras
.layers.
LSTM
(8),
浏览 5
提问于2019-10-26
得票数 1
回答已采纳
1
回答
Keras
的
LSTM
中
的
时间步骤是什么?
、
、
、
我在
Keras
中
的
LSTM
实现有一些问题。 遵循本教程:,我创建了子
序列
(在我
的
例子中,有1452018个子
序列
,window_siz
浏览 2
提问于2019-01-02
得票数 4
回答已采纳
1
回答
两个
序列
到
序列
模型
的
差异--
keras
(有和没有RepeatVector)
、
、
我试图理解这个模型描述之间
的
区别,如下所示:from
keras
.models import Modelinputs = Input(shape=(timesteps, input_dim))decoded =
LSTM
(inp
浏览 1
提问于2018-07-24
得票数 3
回答已采纳
1
回答
基于
LSTM
(Core ML)
的
进程
序列
、
、
、
、
我已经通过协同工具将带有
LSTM
的
Caffe模型转换为CoreML。现在我正试着执行它。但是,我找不到一种方法来处理整个
序列
1, # batch因为我无法找到一种只设置隐藏
状态
(
LSTM
_1_c_in)和初始历史(
LSTM
_1_h_in)和
的
缩写
的
方法,在处理下一项
序列
时使用以前<e
浏览 5
提问于2017-10-03
得票数 0
回答已采纳
1
回答
不同长度时间
序列
Keras
中
的
LSTM
训练
、
、
、
我对
Keras
很陌生,我想知道如何用(中断
的
)不同长度
的
时间
序列
来训练LTSM。例如,考虑
从
第1天到第10天
的
连续
序列
,
从
第15天到第20天
的
连续
序列
,简单地将它们连接到单个系列可能会产生错误
的
结果。我基本上看到了两种选择,可以让它们形成(batch_size, timesteps, output_features) 将较短
的
序列
扩展为某些默认值(0),即对于
浏览 0
提问于2018-06-07
得票数 3
回答已采纳
1
回答
不填充
Keras
中
的
可变
序列
长度
、
、
、
、
关于
Keras
中
LSTM
的
可变
序列
长度,我有一个问题。我正在将大小为200
的
批处理和可变长度
序列
(= x)和
序列
中
的
每个对象(=> 200、x、100)
的
100个特性传递到
LSTM
中:
LSTM
(100, return_sequences=True, stateful对于每个
LSTM
单元,必须学习一个
状态
和三个矩阵(对于单元
的
输入、
浏览 3
提问于2017-07-02
得票数 10
回答已采纳
2
回答
避免在少量数据上使用大型
LSTM
网
、
contains数据集包含
的
数据量很小.例如,FD001子集只有100个运行到失败系列。当我对它进行预处理以得到固定长度
的
时间
序列
时,我可以得到大约20000帧
序列
。3.问题我在这里提供更多关于我
的
网络和结
浏览 0
提问于2020-08-19
得票数 2
回答已采纳
1
回答
Keras
中
序列
到
序列
模型中
的
异常
、
、
、
我正在尝试使用
LSTM
和密集神经网络在
Keras
中构建
序列
到
序列
模型。编码器对输入进行编码,然后将编码
状态
和输入连接并馈送到解码器,该解码器是
lstm
+密集神经网络,其及时输出分类标签。下面是我
的
代码 from
keras
.utils import to_categorical from
keras
.layers import Embedding, Bidirectional, GRU, Dense, TimeDistributed
浏览 18
提问于2019-02-07
得票数 1
1
回答
如何加载和使用Seq2Seq模型?
、
、
、
我已经使用Seq2Seq模型构建了一个基本
的
聊天机器人。当我在笔记本中按顺序运行代码时,机器人运行得很好--即构建模型-->训练模型-->测试模型。这是我到目前为止所得到
的
: 保存模型 saver = tf.train.Saver() sess.run(tf.global_variables_initializer当我按顺序运行时,下面的代码完成了获取输入问题、对其进行标记化以及对问题进行响应
的
工作。/初始化
的
。我为这个问题
的</e
浏览 21
提问于2019-04-27
得票数 0
1
回答
如何将
keras
层
的
输出送入输入层?
、
、
、
我对tensorflow和
keras
相当陌生,我有一个问题。我想使用do时间
序列
预测使用
LSTM
层,并作了一些修改。我
从
tensorflow教程中给出
的
示例开始 model = tf.
keras
.models.Sequential() model.add(tf.
keras
.layers.
LSTM
(neu
浏览 3
提问于2020-03-12
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
RNN循环神经网络、LSTM长短期记忆网络实现时间序列长期利率预测
理解循环神经网络RNN
seq2seq模型实例:用Keras实现机器翻译
DanceNet:帮你生成会跳舞的小姐姐
训练一个能像人一样说话的神经网络模型,具体需要哪些步骤?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券