腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
隐藏
的
堆叠
LSTM
层
如何
互连
?
Python
、
、
、
、
我根据这个模型搜索并绘制了这个RNN
堆叠
LSTM
的
图: model = Sequential() model.add(Dropout(0.2))
浏览 12
提问于2021-03-29
得票数 1
1
回答
pytorch中num_layers =2
的
1个
LSTM
和2个
LSTM
的
差异
、
、
、
我是深度学习
的
新手,目前正在使用
LSTM
进行语言建模。我正在看pytorch文档,被它搞糊涂了。如果我创建一个当hidden_size =4和num_layers = 2时,我想我会有一个类似如下
的
架构:
LSTM
->
LSTM
-> h3
LSTM
->
LSTM<
浏览 9
提问于2018-03-12
得票数 18
回答已采纳
2
回答
堆叠
的
LSTM
网络中每个
LSTM
层
的
输入是什么?
、
、
、
=True))其中,我们
的
层叠
LSTM
网络由两个
LSTM
层
组成,分别有64个和32个
隐藏
单元。]
的
向量,它将在当前时间步表示第一个
LSTM
层
的
隐藏
状态。令我困惑
的
是: 第二
层
LSTM
层
-
LSTM
( 32 )-作为输入接
浏览 8
提问于2019-03-27
得票数 3
2
回答
lstm
(256) +
lstm
(256)与
lstm
(512)
的
区别是什么?
、
、
以下是代码model.add(
LSTM
(256, input_shape=(None, 1), return_sequences=True))model.add(Dense(1))model = Sequential() model.add(
LSTM
(512, input_s
浏览 62
提问于2019-07-29
得票数 2
1
回答
堆叠
LSTM
网络是
如何
工作
的
?
、
、
我在理解
堆叠
LSTM
网络中
的
信元流时遇到了一些困难。model = Sequential() model.add(Bidirectional(
LSTM
(units=30, return_sequences=True, input_shape =
层
的
输入是否到达第二个
LSTM
层
?2)我读到在
LSTM
中,我们将以前
的
隐藏
状态和当前输入作为输入。如果来自第一个
LSTM
层<
浏览 8
提问于2020-09-23
得票数 0
3
回答
堆叠
式
LSTM
的
优点?
、
、
、
我想知道在什么情况下
堆叠
LSTM
是有利
的
?
浏览 0
提问于2017-08-29
得票数 19
1
回答
放电筒中自定义
LSTM
的
辍学
、
、
我已经建立了一个定制
的
窥视孔
lstm
,我想模仿已经在nn.
lstm
中构建
的
辍学部分。那么,
如何
添加像这样
的
辍学,这个
lstm
,nn.
LSTM
(input_size, hidden_size, dropout=0.3),做什么?我对
如何
做到这一点有一个想法,就是在返回输出之前应用一个普通
的
退出,如下所示:self.dropout = nn.Dropout(0.3) # forward m
浏览 2
提问于2022-06-06
得票数 1
回答已采纳
1
回答
LSTM
中
的
return_sequences
、
、
LSTM
的
架构‘下
的
https://www.analyticsvidhya.com/blog/2017/12/fundamentals-of-deep-learning-introduction-to-
lstm
浏览 61
提问于2021-01-10
得票数 1
回答已采纳
1
回答
堆叠
LSTM
层
、
、
、
、
有人能告诉我那些
堆叠
的
LSTM
层
之间
的
区别吗?📷 第一图像在这个问题中给出,第二图像在这篇文章中给出。到目前为止,我所了解
的
关于
堆叠
LSTM
层
的
知识是基于第二张图像
的
。当您构建
LSTM
层
时,其中一个
层
(即h^{1}_{l}, l=..., t-1, t, t+1...)
的
输出成为其他
层
的
浏览 0
提问于2018-10-24
得票数 2
回答已采纳
1
回答
RNN
的
输出h_n (nn.
LSTM
,nn.GRU等)是怎样
的
?在PyTorch结构中?
、
、
、
、
医生说 现在,批处理和hidden_size维度几乎是不言自明
的
。我假设,所有
层
的
所有“最后单元格”
的
隐藏
状态都包含在这个输出中。但是,例如,“最上层”中
的
“最后一个单元格”
的
隐藏
状态是什么?h_n[-1]?h_n[0]?输出是否受batch_
浏览 0
提问于2018-04-05
得票数 5
1
回答
我们
如何
在
堆叠
的
LSTM
模型中使用巴达诺注意力?
、
、
我
的
目标是在
堆叠
的
LSTM
模型中使用注意力,但我不知道
如何
在编码
层
和解码
层
之间添加Keras
的
AdditiveAttention机制。比方说,我们有一个输入
层
,一个编码器,一个解码器和一个密集
的
分类
层
,我们
的
目标是解码器在导出其输出时关注编码器
的
所有
隐藏
状态(h = h1,...,hT)。有没有使用Keras
的
高级编码方法?例如
浏览 8
提问于2021-06-17
得票数 1
1
回答
关于pytorch
LSTM
实现
的
困惑
、
、
大家都知道,Py手电
的
LSTM
实现是一个分层
的
双向
LSTM
.我不知道这个输出是
如何
输入到第二个
LSTM
层
的
。前向
层
和前向
层
的
输出会被合并或连接吗? 我检查其实现
的
源
浏览 4
提问于2022-03-12
得票数 0
2
回答
时间序列预测
LSTM
神经网络
的
正确结构是什么?
、
、
、
、
关于
LSTM
网络
的
结构 如果我想要创建用于求解时间序列预测
的
LSTM
网络,我应该
如何
构造神经网络
的
隐藏
层
?一个
LSTM
memory block将表示一个
隐藏
层
,该
层
中
的
所有节点都将由cells表示。每个
隐藏
层
都应该由众多
的
LSTM
memory blocks组成,这样
的
块集
浏览 5
提问于2013-07-03
得票数 3
回答已采纳
2
回答
是否可以在PyTorch中使用LSTMCells模块实现多层
LSTM
?
、
、
在PyTorch中有一个
LSTM
模块,除了输入序列、
隐藏
状态和单元状态之外,它还接受一个num_layers参数,该参数指定我们
的
LSTM
将有多少
层
。然而,还有另一个模块LSTMCell,它只是将输入大小和
隐藏
状态
的
数量作为参数,没有num_layers,因为这是多层
LSTM
中
的
单个单元。我
的
问题是,怎样才能正确地将LSTMCell模块连接在一起,以达到与使用num_layers > 1
的
多层
浏览 54
提问于2018-01-03
得票数 4
回答已采纳
1
回答
ValueError :
lstm
的
输入0与图层不兼容:期望
的
ndim=3,找到
的
ndim=2。收到
的
完整形状:[无,18]
、
、
、
、
我是Keras
的
新手,我正在努力构建一个供个人使用/未来学习
的
模型。我刚从
python
开始,我想出了这段代码(借助视频和教程)。我有16324个实例
的
数据,每个实例由18个特征和1个因变量组成。from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout,
LSTM
(128, input_shape=(train_x.shape[1:]), return_sequ
浏览 0
提问于2019-09-26
得票数 1
回答已采纳
1
回答
ValueError:
层
lstm
_1
的
输入0与
层
不兼容:需要
的
ndim=3,找到
的
ndim=2。收到
的
完整形状:(None,64)
、
、
、
我很难理解这个错误消息是关于什么
的
。我看过很多帖子,比如 tf.keras.layers.Masking(mask_value设置是正确
的
,但基于上面列出
的
问题,我不知道应该在这里修复什么。每当我尝试拟合模型时,它仍然打印一个错误 ValueError: Input 0 of layer
浏览 0
提问于2021-05-19
得票数 1
2
回答
LSTM
层
间
的
激活函数
、
、
、
、
我知道
LSTM
单元内部同时使用sigmoid和tanh激活函数,但是当创建一个
堆叠
的
LSTM
体系结构时,通过激活函数(例如ReLU)传递它们
的
输出是否有意义?那么,我们是否更喜欢这样:model =
LSTM
(50, activation="relu
浏览 0
提问于2020-01-16
得票数 13
回答已采纳
4
回答
在Keras中,
如何
获取
LSTM
图层
的
3D输入和3D输出
、
、
、
在我最初
的
设置中,我得到了y1 = (1200,10)model = Sequential()model.add(
LSTM
(12, return_sequences=True))X2 = (1200,40,1)现在,我将X1、X2和y1、y
浏览 2
提问于2019-05-22
得票数 11
1
回答
自定义Tensorflow模型中叠加
LSTM
的
动态个数
、
、
我需要一种方法来添加n
层
的
LSTM
层
到模型中。__init__() self.first_
lstm
= tf.keras.layers.
LSTM
(256, activation="relu") x
浏览 0
提问于2021-08-23
得票数 0
回答已采纳
4
回答
“
LSTM
单元中
的
单位数”
的
含义是什么?
、
、
num_units: int, The number of units in the
LSTM
cell. 我不明白这意味着什么。
LSTM
单元
的
单位是什么?输入,输出和忘记门?这是否意味着“深层
LSTM
的
递归投影
层
中
的
单元数”?那为什么它被称为“
LSTM
单元中
的
单元数”?什么是
LSTM
单元,它与
LSTM
块有什么不同?如果不是单元,最小
LSTM
单元是什么?
浏览 0
提问于2016-07-24
得票数 38
回答已采纳
点击加载更多
相关
资讯
如何优化高多层HDI电路板中的层间互连?
如何优化三阶HDI板的层间互连与信号传输
如何解决HDI多层板中的层间互连与散热问题?
DanceNet:帮你生成会跳舞的小姐姐
10层PCB电路板的制造工艺:如何解决多层互连的生产难点?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券