腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
教程
LSTM
、
、
、
、
我试图用
Pytorch
实现关于序列模型和长短期记忆网络的。我们的想法是添加一个
LSTM
词性标记器字符级特性,但我似乎无法实现它。他们给出了一个提示,应该涉及两个
LSTM
,一个将输出字符级表示,另一个将负责预测词性标签。我只是想不出如何循环遍历单词级别(句子中)和字符(句子中的每个单词),并在forward函数中实现它。= nn.
LSTM
(embedding_dim_chars, hidden_dim_chars) self.
lstm
_words = nn.
LSTM
(embeddi
浏览 19
提问于2018-02-09
得票数 2
1
回答
PyTorch
LSTM
中的batch_first
、
、
我是这个领域的新手,所以我仍然不了解
PyTorch
LSTM
中的batch_first。
pytorch
_
lstm
.bias_ih_l0 = torch.nn.Parameter(torch.zeros(
pytorch
_
lstm
.bias_ih_l0.shape))
pytorch
_
lstm
.weight_hh_l0= torch.nn.Parameter(torch.ones(
pytorch
_
lstm
.weight_
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
1
回答
RNN中填充和掩蔽序列的实现
、
、
该网络由一个具有一个
LSTM
层的RNN组成,并在其之上形成一个输出分类的MLP。在
PyTorch
中实现填充/掩蔽的正确方法是什么?
浏览 0
提问于2023-05-30
得票数 0
1
回答
PyTorch
LSTM
-使用word嵌入而不是nn.Embedding()
、
nn.Embedding()对于学习
LSTM
是必不可少的吗?就代码而言,我使用的代码几乎与上述
教程
中的代码相同。因此,nn.Embedding()对于学习
LSTM
是必不可少的吗?
浏览 3
提问于2018-05-14
得票数 2
回答已采纳
3
回答
将
LSTM
Pytorch
模型转换为ONNX时出现问题
、
、
、
、
我正在尝试将我的
LSTM
异常检测
Pytorch
模型导出到ONNX,但遇到错误。请看我下面的代码。 注意:我的数据形状为2685,5,6。_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear_Linear',
浏览 3
提问于2019-08-01
得票数 4
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我的顺序Keras网络移植到
PyTorch
。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学在
PyTorch
中
浏览 2
提问于2020-06-09
得票数 1
1
回答
基于前M和以下N元素的序列元素预测
、
、
、
、
任何其他使用其他型号的想法,特别是变形金刚(
PyTorch
,Tesnsorflow),都非常欢迎,谢谢!
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
2
回答
在
PyTorch
中是否存在干净和可扩展的
LSTM
实现?
、
、
、
、
我想自己创建一个
LSTM
类,但是我不想从头开始重写经典的
LSTM
函数。深入研究
PyTorch
的代码,我只发现至少涉及3-4个具有继承的类的脏实现: 作为一个明确的例子,我正在搜索的是一个像一样干净的实现,但是在
PyTorch
中
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
应该使用哪个BiLSTM层的输出进行分类
、
、
、
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)对于文本分类,应该使用哪一种?
浏览 0
提问于2021-04-29
得票数 0
1
回答
基于叠加
LSTM
的
PyTorch
闪电传输学习
、
、
、
、
我用以下几个层次训练了一个关于
PyTorch
闪电的堆叠式
LSTM
: self.
lstm
= nn.
LSTM
(input_size=n_features,, and not all together x = x.view(len(x), 1, -1)
浏览 5
提问于2022-02-11
得票数 0
1
回答
是否可以创建自定义的Tensorflow GRU/
LSTM
单元?
我想修改tf.nn.rnn_cell.GRUCell并为第二个输入添加另一个门,这样除了z更新门和r重置门之外,还有第三个g自定义门,用于网络的第二个输入,类似于和。我为Torch7 GRU单元成功地完成了这一任务,并且成功地解决了特定的序列建模问题。我怀疑在Tensorflow中实现这一点并不简单,但也许我错了。有人能提供更多关于Tensorflow中自定义单元格的详细信息吗?
浏览 0
提问于2019-02-04
得票数 3
回答已采纳
1
回答
超装
LSTM
型放电筒
、
、
、
、
我正在学习关于的
教程
,以实现一个
LSTM
,用于使用
pytorch
进行文本分类。我试着在上应用这个实现,但是它有很大的局限性,达到了60%的最大精度。例如,请参阅列车/损失曲线:有没有什么建议(我对RNN/
LSTM
很陌生),以适应模型,以防止过高?模型摘自上述
教程
,看上去有点像这样: def __init__(self, vocab, target_classes, embed_len=True)
浏览 12
提问于2022-07-04
得票数 1
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元的数量?
、
、
在
pytorch
LSTM
、RNN或GRU模型中,有一个名为"“的参数,它控制
LSTM
中隐藏层的数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态的数量的列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的序列数据提供给
LSTM
,我想要获得每个时间步的标量输出。这是理解
pytorch
LSTM
框架的有用链接。如果有人
浏览 6
提问于2019-01-07
得票数 1
1
回答
有没有用于nn.LSTMCell的torch 0.4.0 nn.LayerNorm示例?
、
在
pytorch
0.4.0版本中,有一个模块。提前感谢
浏览 1
提问于2018-05-03
得票数 7
1
回答
Keras
LSTM
到
Pytorch
我使用以下代码将顺序
LSTM
应用于具有一个值的时间序列数据。它在Keras版本上工作得很好。我想知道怎样才能用
PyTorch
做同样的事情?tensorflow.keras.models import Sequential, Modeltime_steps = 24 metric = 'mean_absolut
浏览 16
提问于2020-07-15
得票数 0
1
回答
如何将
LSTM
与Keras堆栈?
、
、
我的模型是: model.add(
LSTM
(128, input_shape=(10, VECTOR_SIZE), return_sequencesTimeDistributed(Dense(VECTOR_SIZE, activation='linear'))) File "/Users/shamoon/.local/share/virtualenvs/
pytorch
-
lstm
-audio-
浏览 4
提问于2020-02-15
得票数 0
回答已采纳
1
回答
将火炬
LSTM
的状态参数转换为Keras
LSTM
、
、
我试图将一个现有的经过训练的
PyTorch
模型移植到Keras中。
LSTM
网络的Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数的双向
LSTM
,如下所示[<tf.Variable 'bidirectional_1/forward_
lstm
_1/kernel:0
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
1
回答
我想知道如何在
Pytorch
中处理
LSTM
、
我们正在尝试使用
LSTM
重建模型。 从上面的图片中,我现在将它放在下面的形状中。(batch、
lstm
_num、dv_batch、dvector)我想知道是否有其他方法可以使用
lstm
_num作为循环或张量本身来处理4维数据。
浏览 3
提问于2020-05-25
得票数 0
1
回答
LSTM
自动编码器的这些实现之间的区别?
、
、
、
例1 (TensorFlow):model = Sequential()model.add(TimeDistributed(Dense(1)))该实现在应用
LSTM
层之前对嵌入进行训练.它似乎
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
用于可变尺寸输入的小型批量培训
、
、
、
、
我是
PyTorch
和RNN的新手,所以我很困惑如何为我拥有的数据实现小型批量培训。有更多的这些数据,但我想保持简单,所以我只能理解如何实现小批量培训部分。我正在进行多类分类,基于
LSTM
/GRU在可变长度输入上训练的最终隐藏状态。我设法使它与批处理大小1(基本上是SGD)工作,但我正在努力实现小型批。= DataLoader(inputs, batch_size=batch_size, shuffle=True) #do stuff using
LSTM
我找不到关于使用DataLo
浏览 3
提问于2018-02-14
得票数 7
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云点播
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券