腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将
LSTM
用于
固定
大小
输入
和
可变
大小
输入
的
区别
、
、
、
我想知道如何训练(自然
的
)
LSTM
模型,在这种模型中,我只使用所有数据点在一个循环中一个接一个地提供单个时间步长,而不仅仅是具有
固定
时间长度
的
历史数据点
的
样本。而且,可能
的
区别
是什么,为什么使用
固定
长度是标准,而逐步使用所有点是更直观
的
方式? 除了我
的
理论问题,有没有一个很好
的
例子,使用单个时间步长
的
循环,而不是
将
整个窗口提供给
LSTM
?
浏览 23
提问于2021-05-10
得票数 1
1
回答
具有
可变
特征数
的
Keras
LSTM
模型
、
、
、
我正在用Keras训练seq到seq自动编码器,我
的
输入
是(num_examples, time_step, num_features)。问题是,对于所有示例,num_features并不是相同
的
,而且,我将在将来获得更多
的
num_feature
大小
未知
的
示例。到目前为止我
的
代码是: inputs = Input(shape=data.shape[1:]) encoded1 =
LSTM</em
浏览 0
提问于2018-06-25
得票数 1
回答已采纳
2
回答
LSTM
如何处理变长序列
、
、
、
、
encoded_text = layers.
LSTM
(32)(embedded_text) loss='categorical_crossentropy',如您所见,这个模型
的
输入
没有原始数据
的
形状信息,那么在嵌入层之后,
浏览 1
提问于2018-04-19
得票数 10
回答已采纳
2
回答
具有
可变
输入
大小
的
自动编码器
、
、
我正在尝试开发一个自动编码器
的
声音,有一个在0.05秒
和
30秒之间
的
可变
长度。我想知道是否有可能创建一个简单
的
自动编码器,考虑到这个
可变
长度作为
输入
,或者我应该做一些
输入
之前
的
预处理。
浏览 2
提问于2021-04-18
得票数 1
1
回答
用tensorflow理解
LSTM
模型进行情感分析
、
、
、
、
我正在尝试学习使用Tensorflow进行情绪分析
的
LSTM
模型,我已经通过了。模型
的
后,尝试修改上面的
LSTM
模型。有些人是如何通过许多碰撞
和
运行
的
痕迹,我能够得到下面运行
的
代码(sentiment_demo_
lstm
.py):from tensorflow.contrib这里我把隐藏层
的
数目取为128个,是否需要与
输入
数(即len(train_x)= 9596 )
浏览 0
提问于2017-06-06
得票数 15
回答已采纳
1
回答
变压器(如伯特)是否有无限
的
输入
尺寸?
、
、
、
、
互联网上有各种各样
的
来源声称,伯特
的
固定
输入
大小
为512个令牌(例如这、这、这、这 .)。在我看来,当NLP从回归模型转变时,我一直认为(RNN/
LSTM
Seq2Seq,Bahdanau .)对于转换器,我们将
可变
长度
的
输入
转换为
固定
长度
的
输入
,这种
输入
需要为较短
的
序列填充,并且不能扩展到超过然而,想想看,变压器中
的
浏览 0
提问于2023-03-31
得票数 3
回答已采纳
1
回答
如何在PyTorch中正确地
输入
嵌入层、线性层
和
线性层?
、
输出: batch_size * seq_length * embedding_dimension 我在这里没有任何问题,我只想清楚地说明
输入
和
输出
的
预期形状。
LSTM
层
的
输入
,我需要转置轴1
和
2。当len(sentence)
和
self.batch
大小
相同时会发生什么情况?of
LSTM
,那么我可以将它作为nn.Linear
的
输入
。但是,如果我想使用输出(它也包含所有中间隐藏状态)
浏览 1
提问于2018-03-24
得票数 40
回答已采纳
2
回答
机器学习模型,它有一个未定义
的
输入
大小
但有一个
固定
的
输出?
、
、
我对ML不太了解,但我似乎能想出如何训练这样
的
东西。如果你们能列举一些可行
的
方法,谢谢。
浏览 0
提问于2020-04-29
得票数 1
回答已采纳
2
回答
如何使用
可变
长度
的
输入
数据
输入
Scikit学习MLP分类器。
、
、
、
我想用下面的数据集运行简单
的
MLP分类器(Scikit learn)。 我面临
的
问题是如何用
可变
长度
的
数据训练简单
的
MLP,训练集
和
测试集分别包含75
和
浏览 0
提问于2018-05-07
得票数 1
2
回答
卷积神经网络中
的
随机裁剪
和
翻转
、
、
在我读到
的
许多关于卷积神经网络(CNN)
的
研究论文中,我看到人们从图像中随机裁剪一个正方形区域(例如224x224),然后随机水平翻转它。为什么要进行随机裁剪
和
翻转?另外,为什么人们总是裁剪一个正方形
的
区域。Can不能在矩形区域上工作吗?
浏览 0
提问于2015-09-29
得票数 17
回答已采纳
0
回答
双向
LSTM
的
预填充与延迟
输入
的
比较
、
、
、
、
因为我
的
输入
是
可变
长度
的
,所以我需要将它们都填充到相同
的
大小
,以便将它们提供给双向
LSTM
。 input [3,2,1,2] postpad [3,2,1,2,0,0,0] 哪种变种有助于更好
的
梯度流?
浏览 1
提问于2018-07-10
得票数 2
1
回答
在tensorflow中用ConvLSTM2D对变长视频进行分类
📷使用填充
和
掩蔽实际上使用不同
的
输入
长度,但使用批处理
大小
为1。我不知道如何从这里开始,因为我找不到填补
和
掩盖图像序列
的
任何资源。粗糙
的
张量令人困惑,我找不到图像序列
的
任何例子。当尝试使用批处理
大小
为1时,tensor
浏览 0
提问于2021-02-17
得票数 1
回答已采纳
2
回答
在序列模型中,是否有可能有不同时间步骤
的
训练批次来减少每个
输入
序列所需
的
填充量?
、
、
、
、
我想训练一个具有
可变
长度
输入
的
LSTM
模型。具体来说,我想使用尽可能少
的
填充,同时仍然使用小型批次。 据我所知,每一批
输入
都需要一个
固定
的
时间步骤,这就需要填充。但是不同
的
批次对于
输入
可能有不同
的
时间步骤,因此在每批
输入
中,只需将
输入
填充到同一批中最长
的
输入
序列
的
长度。这就是我想要实现
的
。我需
浏览 0
提问于2020-11-26
得票数 4
回答已采纳
1
回答
给
LSTM
输入
可变
长度
、
、
、
、
我
的
输入
数据由列表组成。两个列表对于每个示例都具有动态长度,如下所示。尝试用给定
的
输入
X训练Y模型,并对D3进行预测。else: model.add(Dropoutbinary_cro
浏览 0
提问于2018-11-04
得票数 2
4
回答
为什么CNN必须有
固定
的
输入
大小
?
、
、
、
为什么CNN必须有
固定
的
输入
大小
?但是为什么呢?我无法理解完全连接层
的
存在意味着什么,以及为什么我们被迫有一个
固定
的
输入
大小
。
浏览 0
提问于2019-11-30
得票数 9
回答已采纳
1
回答
Keras实现中
的
LSTM
体系结构?
、
、
、
、
我是Keras
的
新手,在Keras documentation中浏览了
LSTM
及其实现细节。这很容易,但突然间,我通过
的
帖子
和
评论。它使我对实际
的
LSTM
体系结构感到困惑:model = Sequential()model.add(
的
时间步骤,每个步骤都被馈送到各自
的
LSTM
cell;64表示no。每个时间步骤<e
浏览 2
提问于2018-12-29
得票数 2
回答已采纳
1
回答
有什么算法可以预测任意
大小
的
结构化输出?
、
、
我有一个
可变
大小
(
输入
)
的
图形对象集合,每个对象都与另一个
可变
大小
的
图(输出)配对。任务是,给定一个
输入
图,生成最有可能
的
输出图。我一直在研究“结构化输出”技术,如SSVM,但据我所知,它们都是针对
固定
大小
的
输出(或者至少是与
输入
大小
相匹配
的
大小
,即序列标记)。是否有任何工具可以
将
输入
浏览 0
提问于2018-01-25
得票数 2
回答已采纳
1
回答
机器学习有一个
可变
大小
的
实际
输入
向量?
、
、
我有一个具有属性
的
对象集合,这些属性是我测量
的
。对于每个对象,我得到一个描述该对象
的
实数向量。向量总是不完整
的
:通常在完全向量
的
开头或结尾缺少数字,有时中间缺少信息。因此,每个对象都会产生一个长度不同
的
向量。我也测量,比如说,每个物体
的
质量,现在我想把我测量到
的
物体
的
向量
和
质量联系起来。那么大概有一个更好
的
方法来操纵这些
可变
长度
的
向量,以便得到一个更好
的<
浏览 2
提问于2016-05-23
得票数 4
1
回答
Pytorch中
LSTM
的
可变
大小
输入
、
、
我正在使用
可变
长度视频
的
功能来训练一层
LSTM
。视频
大小
从10帧变化到35帧。我使用批处理
大小
为1。我有以下代码:for step, (video_features, label) in enumerate(data_loaderrepresents zero initial hidden state return out
浏览 1
提问于2018-04-14
得票数 5
回答已采纳
2
回答
如何确保不同音频文件之间
的
帧
大小
一致?
、
、
、
、
我目前正在尝试回归网络
的
目的是提取MFCC特征。网络
的
输入
是采样
和
帧化
的
音频文件,我似乎有一些问题做,或者这样做,我得到一个一致
的
输出-意味着一致
的
帧
大小
,因为它不会作为一个神经网络
的
输入
。我目前正在对每个音频文件进行采样
和
帧化: raw_sounds = [] data_outputlib
浏览 0
提问于2016-11-06
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
matlab使用长短期记忆(LSTM)神经网络对序列数据进行分类
【模型解读】浅析RNN到LSTM
教你几招搞定 LSTMS 的独门绝技
白话文本检测经典模型:CTPN
复杂GUI也能搞定!西安交通大学提出前端设计图自动转代码新方法
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券