腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
我
的
LSTM
中
添加
一个
线性
层
使得
PyTorch
中
的
验证
损失
急剧
上升
、
我
的
模型是:
lstm
_out, hidden = self.
lstm
(x, hidden)
lstm
_out = (
lstm
_out[:, :, :self.hidden_size] + view_out = out.view(batch_siz
浏览 31
提问于2020-03-05
得票数 0
回答已采纳
2
回答
LSTM
层
间
的
激活函数
、
、
、
、
我
知道
LSTM
单元内部同时使用sigmoid和tanh激活函数,但是当创建
一个
堆叠
的
LSTM
体系结构时,通过激活函数(例如ReLU)传递它们
的
输出是否有意义?那么,我们是否更喜欢这样:model =
LSTM
(50, activation=&
浏览 0
提问于2020-01-16
得票数 13
回答已采纳
1
回答
如何选择
LSTM
中
致密
层
的
维数?
、
、
、
、
我
有一项多标签文本分类
的
任务。
我
的
数据集有1369个类:print(X_train.shape)print(Y_train.shape)(54629, 500)(54629, 1369)对于这个任务,
我
决定在下面的参数中使用
LSTM
NN:maxlen维度(
在
我<
浏览 1
提问于2018-08-31
得票数 3
1
回答
为什么非常简单
的
PyTorch
LSTM
模型不学习?
、
、
、
我
正在尝试做非常简单
的
学习,以便
我
能够更好地理解
PyTorch
和
LSTM
的
工作原理。为此,
我
试图学习
一个
从输入张量到输出张量(相同形状)
的
映射,这个映射值是值
的
两倍。为此,
我
有
一个
dataloader def __init__(self, corrupted_path, train_set=Falsenum_laye
浏览 3
提问于2020-02-12
得票数 4
回答已采纳
1
回答
美国有线电视新闻网->
LSTM
级联模型到
PyTorch
闪电
、
、
、
、
我
试图隐藏
PyTorch
代码
的
CNN ->
LSTM
级联模型到
PyTorch
闪电。
在
nn.Module码中有两个
PyTorch
类,
一个
用于CNN (编码器),
一个
用于
LSTM
(译码器),最后
一个
隐藏
层
作为
PyTorch
的
输入。因此,
在
转换到
PyTorch
闪电之后,有两个pl.LightningModul
浏览 0
提问于2021-08-03
得票数 0
1
回答
应该使用哪个BiLSTM
层
的
输出进行分类
、
、
、
我
试图为文本分类问题实现
一个
BiLSTM
层
,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)现在,
在
一些例子
中
(
我
在
互联网上
浏览 0
提问于2021-04-29
得票数 0
1
回答
基于前M和以下N元素
的
序列元素预测
、
、
、
、
我
有
一个
长度相等
的
序列数组,每个序列包含300个数字(M=300)。...2121 # 300 numbers将所有序列拆分为训练/
验证
/测试集
在
火车集合上训练Bi
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
3
回答
放电筒
中
的
多元输入
LSTM
、
、
我
想用实现
LSTM
,以便在
中
实现多变量输入。
在
本文中,使用了keras,输入数据
的
形状为(样本数、时间步数、并行特性数)。LSTMs
的
n_features创建为第一
层
,并分别为每个
层
(想象为多个序列流),然后将它们
的
输出压平到
线性
层
?
我
不是100%确定,但根据
LSTM
的
性质,输入不能作为一维数组被平放和传递,因为每个序列“按照不同
的<
浏览 1
提问于2019-07-02
得票数 14
回答已采纳
1
回答
如何在
pytorch
LSTM
中
自定义多个隐藏
层
单元
的
数量?
、
、
在
pytorch
LSTM
、RNN或GRU模型
中
,有
一个
名为"“
的
参数,它控制
LSTM
中
隐藏
层
的
数量。
我
想知道,既然
LSTM
中有多个
层
,为什么参数"hidden_size“只是
一个
数字,而不是包含多个
层
中
隐藏状态
的
数量
的
列表,如10、20、30。
我
浏览 6
提问于2019-01-07
得票数 1
2
回答
Pytorch
-使用
LSTM
网络时尺寸不正确
、
、
我
开始使用
pytorch
,并使用一些转换来构建以下模型,使用其中
一个
教程作为参考: torch.nn.Linear(D_in, H)
我
认为
我
对转型(网络?)
的
理解存在根本性错误。可以链接在
pytorch
中
..。
在
遵循@esBee
的
建议后,
我
发现以下内容运行正确。这是因为
LSTM
期望输入
的
浏览 58
提问于2018-05-28
得票数 3
1
回答
用Keras和TensorFlow实现
LSTM
网络
、
、
、
、
由于知识有限,
我
建立了
一个
LSTM
网络。
我
想
验证
我
的
假设并更好地理解Keras。网络代码:model.add(
LSTM
(8, batch_input_shape=(None, 100, 4), return_sequences=True))model.add(
LSTM
(4, return_sequences=True))mode
浏览 0
提问于2018-10-04
得票数 0
回答已采纳
2
回答
Keras模型每个(最后一
层
)输出
的
个别
损失
、
、
、
、
在
训练ANN进行回归时,Keras将训练/
验证
损失
存储
在
中
。对于带有的最后一
层
中
的
多个输出,即均方误差或均方误差: 任何暗示都将不胜感
浏览 0
提问于2018-08-30
得票数 1
1
回答
在
链子或火把
中
,是否可以对不同
的
权重使用不同
的
L1 / L2正则化参数?
、
(举个例子)
在
实现noutput目标值
的
简单
线性
模型时,将其作为
pytorch
中
的
神经网络:(打电话)returnyoptimizer.add_hook(optimizer.WeightDecay(rate=0.01)) 对于从所有ninput输入单元到noutput输出单
浏览 1
提问于2018-04-22
得票数 0
回答已采纳
2
回答
LSTM
预测直线
、
、
、
我
在
Keras建了
一个
LSTM
。它读取9个时差
的
观测结果,并预测下
一个
标签。出于某种原因,
我
训练
的
模型预测
的
东西几乎是一条直线。
在
创建如此糟糕
的
回归结果
的
模型体系结构
中
可能会出现什么问题?3个隐藏
层
,每个20个单元。1输出
层
1单位。 模
浏览 2
提问于2019-10-15
得票数 3
回答已采纳
2
回答
CheXpert数据集
的
仍然过拟合图像分类
、
、
、
、
我
尝试对CheXpert数据集中
的
图像进行分类,只对
一个
观测结果(Alectasis)和
一个
2类分类问题(1真,0假)进行分类。
我
对图像进行预处理,将它们调整为224x224,并将它们规范化。在运行该模型时,训练
损失
降低到0.043轮,
验证
损失
上升
到2.199,测试准确率达到55.56%。
我
试图通过以下几种方法来防止这种过度
的
情况: #尝试1:
我
使用了
一个
带下拉<
浏览 2
提问于2020-07-09
得票数 0
1
回答
Keras
中
卷积递归网络
的
建模
、
、
、
我
试图将模型移植到Keras。 但是,
在
将Conv2D
层
的
输出连接到
LSTM
层
时,
我
被卡住了。来自CNN
层
的
输出将具有( batch_size,512,1,width_dash)
的
形状,其中第
一个
依赖于batch_size,最后
一个
依赖于输入
的
输入宽度(该模型可以接受可变宽度输入)。例如:
一个
形状为2,1,32,829
的
输入以(
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
1
回答
nn.
LSTM
似乎没有学到任何东西或者没有正确地更新
、
、
、
、
我
正在尝试
一个
简单
的
LSTM
用例用例表单py手电筒,使用下面的模型。(与Sigmoid输出
层
相结合)。不幸
的
是,
损失
被困在0.6969 (也就是说,它没有学到任何东西)。
我
尝试过使用final_hidden_state,output[:,0,:]来输入
线性
层
,但到目前为止还没有骰子。其他所有东西(优化器、损耗准则、列车回路、val循环)都已经工作了,因为
我
只使用nn.Embedding、nn.Li
浏览 3
提问于2022-09-28
得票数 1
回答已采纳
1
回答
目标为同维向量时word2vec矢量训练
的
损耗函数
的
选择
、
、
我
有
一个
lstm
,
我
用它作为序列发生器,训练word2vec向量.以前
的
实现为所有不同
的
标签产生了概率分布。词汇
中
的
每个单词都有
一个
标签。这个实现使用了
Pytorch
的
CrossEntropyLoss。
我
现在想改变这一点,以便
lstm
输出
一个
向量,其维数与用于训练
的
向量相同。通过这种方式,
我
可以使用euclyd
浏览 1
提问于2019-09-25
得票数 0
回答已采纳
1
回答
为什么
在
Keras中使用前馈神经网络进行单独
的
训练、
验证
和测试,
我
获得了100%
的
准确性?
、
、
、
、
今天,
我
正在研制
一个
分类器,以检测蘑菇是否有毒,因为它
的
特征。这些数据
在
一个
.csv文件
中
(读给熊猫DataFrame),数据
的
链接可以
在
最后找到。这个网络由三
层
组成:
一个
简单
的
密集
层
(
PyTorch
用户
线性
层
)
层
,300个神经元,
一个
密集
层
,100个神经元,
一个<
浏览 4
提问于2020-07-17
得票数 2
回答已采纳
2
回答
Val
损失
最初减少,然后增加
、
、
我
创建了
一个
LSTM
模型来预测8个特性
的
1个输出值。
我
的
损失
不断减少,
我
的
val
损失
也从一开始就减少了,但是
在
经历了这么多
的
时代之后,
我
的
损失
开始增加。这是一张发生了什么
的
照片。📷file = r'/content/drive
浏览 0
提问于2022-08-28
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教你几招搞定 LSTMS 的独门绝技
最完整的PyTorch数据科学家指南(1)
PyTorch入门到进阶,实战计算机视觉与自然语言处理
Pytorch 学习引发的思考
从基础概念到实现,小白如何快速入门PyTorch
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券