腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7400)
视频
沙龙
1
回答
图像
说明
示例
解码器
LSTM
Pytorch
的
输入
大小
、
、
、
我是
Pytorch
的
新手,在
图像
字幕中有一个疑问。在DcoderRNN类中,
lstm
被定义为,在forward(captions)我们首先嵌入字幕,然后将嵌入与EncoderCNN中
的
上下文功能
浏览 4
提问于2018-03-03
得票数 1
回答已采纳
1
回答
美国有线电视新闻网->
LSTM
级联模型到
PyTorch
闪电
、
、
、
、
我试图隐藏
PyTorch
代码
的
CNN ->
LSTM
级联模型到
PyTorch
闪电。在nn.Module码中有两个
PyTorch
类,一个用于CNN (编码器),一个用于
LSTM
(译码器),最后一个隐藏层作为
PyTorch
的
输入
。因此,在转换到
PyTorch
闪电之后,有两个pl.LightningModule类。我想知道如何在这两个类中填充所需
的
方法。以下是
PyTorch
中丢失
浏览 0
提问于2021-08-03
得票数 0
1
回答
双向相对于传统
的
LSTM
、
、
我正在致力于
图像
标题问题,在这里,我需要一个编码器
的
图像
和
解码器
的
标题生成。关于
解码器
,我已经找到了一个引用,它使用
Pytorch
,其中bidirectional参数是False。然而,我知道双向
LSTM
更准确。那么,你对这个比较有什么看法?
浏览 0
提问于2020-08-05
得票数 -1
回答已采纳
1
回答
基于前M和以下N元素
的
序列元素预测
、
、
、
、
...2121 # 300 numbers将所有序列拆分为训练/验证/测试集在测试和验证集中,将从180到190
的
位置
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
1
回答
如何在
PyTorch
中正确实现Seq2Seq
LSTM
的
填充?
、
、
、
、
在这个中,他们没有使用填充,尽管
输入
和输出
的
长度是可变
的
。它似乎工作得很好,但如何工作呢?如果
输入
的
长度是可变
的
,我们不应该实现填充吗?怎样做才是正确
的
呢? 谢谢。
浏览 0
提问于2020-02-21
得票数 0
2
回答
理解
PyTorch
LSTM
的
输入
形状
、
、
、
这似乎是
PyTorch
中关于
LSTM
最常见
的
问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的
输入
形状应该是什么。根据
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
1
回答
Keras和
Pytorch
编解码模型
的
差异
、
、
、
在编码器-译码器模型
的
构造之间,似乎存在着显著
的
、根本性
的
差异.这是,这是。 我
的</em
浏览 9
提问于2020-06-09
得票数 0
回答已采纳
2
回答
Pytorch
ValueError:预期目标
大小
(2,13),在调用CrossEntropyLoss时获取torch.Size([2])
、
、
、
我正在尝试训练一个
Pytorch
LSTM
网络,但是当我试图计算CrossEntropyLoss时,我得到了ValueError: Expected target size (2, 13), got下面是我
的
网络定义: class
LSTM
(nn.Module): def __init__(self, vocab_size, embedding_dim, hidden_dim, n_layers我
的
数据在一个名为training_dataset
的
TensorDataset中,它
浏览 399
提问于2020-11-30
得票数 1
回答已采纳
1
回答
DecoderRNN
的
输出包含额外
的
维度(
Pytorch
)
、
、
、
、
我已经开发了一个用于
pytorch
图像
字幕
的
编码器(CNN)-Decoder (RNN)网络。
解码器
网络接受两个
输入
-来自编码器
的
上下文特征向量和用于训练
的
字幕
的
单词嵌入。上下文特征向量
的
大小
= embed_size,这也是每个单词在标题中
的
嵌入
大小
。我这里
的
问题更多
的
是关于DecoderRNN类
的
输出。请参考下面的代码。= n
浏览 3
提问于2018-08-02
得票数 2
1
回答
PyTorch
LSTM
中
的
batch_first
、
、
我是这个领域
的
新手,所以我仍然不了解
PyTorch
LSTM
中
的
batch_first。我尝试了别人向我推荐
的
代码,当batch_first = False时,它对我
的
训练数据起作用,它为官方
LSTM
和手动
LSTM
产生相同
的
输出。但是,当我更改batch_first =True时,它不再产生相同
的
值,而我需要将batch_first更改为True,因为我
的
数据集形状是张量(批次,序列,
输入<
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
2
回答
是否可以在
PyTorch
中使用LSTMCells模块实现多层
LSTM
?
、
、
在
PyTorch
中有一个
LSTM
模块,除了
输入
序列、隐藏状态和单元状态之外,它还接受一个num_layers参数,该参数指定我们
的
LSTM
将有多少层。然而,还有另一个模块LSTMCell,它只是将
输入
大小
和隐藏状态
的
数量作为参数,没有num_layers,因为这是多层
LSTM
中
的
单个单元。我
的
问题是,怎样才能正确地将LSTMCell模块连接在一起,以达到与使用num_layers > 1<em
浏览 54
提问于2018-01-03
得票数 4
回答已采纳
1
回答
RNN中填充和掩蔽序列
的
实现
、
、
作为练习,我正在构建一个用于序列二进制分类
的
网络(序列是属于A型还是B型)。该网络由一个具有一个
LSTM
层
的
RNN组成,并在其之上形成一个输出分类
的
MLP。我将不同长度
的
序列批量
输入
到网络中,这意味着我需要对序列进行填充,使其长度相等,并屏蔽网络
的
输出,使它们与原始序列相同长度。 在
PyTorch
中实现填充/掩蔽
的
正确方法是什么?或者还有其他我不知道
的
“秘密”方式?
浏览 0
提问于2023-05-30
得票数 0
1
回答
用于向量到字符序列翻译
的
LSTM
方法
、
、
、
、
我想要建立一个序列到序列
的
模型,它需要一个2048年长
的
1s和0
的
向量(例如。.,1 )作为
输入
,并将其转换为已知
的
输出(可变长度) 1-20个长字符(例如。GBNMIRN、ILCEQZG或FPSRABBRF)。我
的
目标是建立一个模型,可以接受一个新
的
2048年长
的
1s和0向量,并预测输出序列
的
样子。但我不知道如何用我
的
问题来实现它。是否有任何项目已经做了类似的事情/
浏览 3
提问于2017-06-19
得票数 3
回答已采纳
1
回答
Keras中卷积递归网络
的
建模
、
、
、
但是,在将Conv2D层
的
输出连接到
LSTM
层时,我被卡住了。来自CNN层
的
输出将具有( batch_size,512,1,width_dash)
的
形状,其中第一个依赖于batch_size,最后一个依赖于
输入
的
输入
宽度(该模型可以接受可变宽度
输入
)。例如:一个形状为2,1,32,829
的
输入
以(2,512,1,208)
的
形状输出。 现在,根据,我们必须做挤压(2),然后是permute(2,0,1
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
1
回答
LSTM
自动编码器
的
这些实现之间
的
区别?
、
、
、
(100, activation='relu', return_sequences=True))在查看
PyTorch
中自动编码器
的
实现时例1 (
PyTorch
):此
示例
编码器
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
有没有可能用keras做更长
的
输出长度?
、
、
我想预测一些与空间天气相关
的
指标(kp,Dst等)。使用RNN或
LSTM
。建立多对一模型是可能
的
,尽管它显示出较低
的
准确性。然而,我
的
目标是通过过去3天
的
观察来预测未来
的
7天。问题是,是否有可能在功能上构建具有更长输出长度(或时间步长)
的
RNN?而不是
输入
? 任何帮助都将不胜感激!请帮帮我。
浏览 13
提问于2018-08-16
得票数 1
回答已采纳
1
回答
pytorch
中num_layers =2
的
1个
LSTM
和2个
LSTM
的
差异
、
、
、
我是深度学习
的
新手,目前正在使用
LSTM
进行语言建模。我正在看
pytorch
文档,被它搞糊涂了。如果我创建一个当hidden_size =4和num_layers = 2时,我想我会有一个类似如下
的
架构:
LSTM
->
LSTM
-> h3
LSTM
->
浏览 9
提问于2018-03-12
得票数 18
回答已采纳
1
回答
为什么非常简单
的
PyTorch
LSTM
模型不学习?
、
、
、
我正在尝试做非常简单
的
学习,以便我能够更好地理解
PyTorch
和
LSTM
的
工作原理。为此,我试图学习一个从
输入
张量到输出张量(相同形状)
的
映射,这个映射值是值
的
两倍。因此,[1 2 3]作为
输入
应该学习[2 4 6]作为输出。5) * 2我
的
LS
浏览 3
提问于2020-02-12
得票数 4
回答已采纳
1
回答
为什么不将上下文向量传递给
解码器
的
每一个
输入
、
、
在这个模型中,在编码器部分,我们给出一个包含3个单词A,B和c
的
输入
句子,我们得到一个上下文向量W,它被传递给
解码器
。为什么我们不将W传递给
解码器
的
所有单元,而不是前一个单元
的
输出,例如(首先传递W,然后在下一个单元中传递X,在下一个单元中传递Y) 有人能解释一下
解码器
的
单元状态到底是怎么回事吗?传递给
解码器
的
编码器
的
单元状态发生了什么变化
浏览 25
提问于2021-02-09
得票数 0
回答已采纳
3
回答
LSTM
自动编码器
、
、
、
、
我试图构建一个
LSTM
自动编码器,目的是从序列中获得一个固定
大小
的
向量,它尽可能好地表示序列。这个自动编码器由两部分组成: (训练
示例
数、序列长度
浏览 6
提问于2017-06-20
得票数 43
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
复杂GUI也能搞定!西安交通大学提出前端设计图自动转代码新方法
PyTorch 中使用深度学习的自动图像捕获
前端设计图转代码,西安交大表示复杂界面也能一步步搞定
DanceNet:帮你生成会跳舞的小姐姐
大数据分析使用torchlayers构建PyTorch模型
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券