腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何在tensorflow中使用
双向
RNN
层?
当我们添加一个
双向
RNN
层时,我可以理解我们必须连接隐藏状态。如果在编码器解码模型中使用
双向
RNN
层,是否需要分别对
双向
RNN
层进行训练?
浏览 2
提问于2017-04-12
得票数 2
回答已采纳
2
回答
双向
RNN
能使用可变序列长度吗?
、
、
双向
RNN
由两个
RNN
组成,一个用于前向,另一个用于后向顺序方向,其结果在每个时间步骤中被串联。这种配置是否会限制模型始终使用固定的序列长度?还是它仍然作为单向
RNN
工作,可以应用于任何序列长度?之所以提出这个问题,是因为
双向
体系结构在每个时间步骤合并了前向和后向
RNN
的输出。因此,如果序列长度为4,则前向和后向
RNN
的输出都将以这样的方式合并:1向前与4后退,2向前与3后退,.4前进与1后退。这种合并顺序的变化会对
双向
RNN
性能产生
浏览 0
提问于2020-06-09
得票数 4
回答已采纳
1
回答
用于Seq2Seq的多层
双向
编码器
、
我正在尝试为Seq2Seq实现多层
双向
编码器。我现在所做的是:cell = tf.nn.bidirectional_dynamic_
rnn
(cell_fw =encoder_cell, cell_bw =encoder_cell, .... ) 我使用Te
浏览 4
提问于2017-06-11
得票数 0
回答已采纳
2
回答
tensorflow中
RNN
的编解码器模型
、
、
、
我正在使用
双向
RNN
为编码器和解码器实现一个编码器解码器模型。由于我在编码器端初始化
双向
RNN
,并且与
双向
RNN
关联的权重和向量已经初始化,所以当我尝试在解码器端初始化另一个实例时,我得到以下错误: ValueError: Variable bidirectional_
rnn
(num_hidden_enc) with tf.name_scope(&qu
浏览 22
提问于2019-09-17
得票数 2
回答已采纳
1
回答
双向
RNN
和
双向
LSTM有什么区别?
、
、
、
最近我开始使用LSTM,但当我开始使用
双向
时,我混淆了
双向
RNN
和
双向
LSTM!它们是一样的吗?什么是
双向
编码层?
浏览 0
提问于2019-03-29
得票数 1
1
回答
如何使用seq2seq为tf2构建自定义
双向
编码器?
、
、
、
class Encoder(tf.keras.Model): super(Encoder, self).__init__() self.enc_units = enc_units self.gru = tf.keras.laye
浏览 6
提问于2019-11-24
得票数 2
回答已采纳
1
回答
双向
RNN
实现pytorch
、
、
嗨,我正在尝试理解
双向
RNN
。> class
RNN
(nn.Module):> def __init__(self,n_vocab,n_embed,hidden_size,output_size):>n_vocab+1,n_embed) ## n_vocab is unique words in dictionary ## n_embed is hyperparameter > self.
rnn
= nn.
RNN
(n_embed
浏览 43
提问于2020-07-28
得票数 0
回答已采纳
1
回答
无法实现多层
双向
RNN
、
对于编码器的第一层,我有
双向
LSTM。因此,我实现了为可变层数获取
双向
LSTM的方法: outputs, final_state_fw, final_state_bw=tf.contrib.
rnn
.stack_bidirectional_dynamic_
rnn
浏览 0
提问于2018-11-21
得票数 1
回答已采纳
2
回答
在tensorflow 1.0.0中哪里可以找到bidirectional_
rnn
?
、
我使用tf_upgrade.py升级了github代码库中的model.py,但仍然收到错误:AttributeError: 'module' object has no attribute 'bidirectional_
rnn
'from
浏览 1
提问于2017-02-17
得票数 0
1
回答
如何从tensorflow中的
双向
rnn
获取所有状态
、
、
我正在使用Tensorflow构建一个
双向
自动编码器。在我的工作中,需要访问序列中的所有状态,而不仅仅是最后一个状态,而是函数输出,state,state =
rnn
.bidirectional_
rnn
只返回序列的最后一个状态。如何获取其他状态?
浏览 5
提问于2016-09-11
得票数 0
回答已采纳
0
回答
TensorFlow
双向
CudnnGRU歧义最终状态格式
、
tf.contrib.cudnn_
rnn
.CudnnGRU的声明call返回
rnn
_output,
rnn
_state。
RNN
state是一个元组,在像GRU这样的非LSTM情况下,它只有一个元素--形状为[num_layers * num_dirs, batch_size, num_units]的张量(在本例中,num_dirs为2,对于
双向
GRU)。简而言之,给定一个n层
双向
GRU,这个张量是[final_state_fw_1, ..., final_state_fw_n, fin
浏览 8
提问于2018-07-17
得票数 1
1
回答
具有自定义
RNN
信元的角星
双向
层
tensor_lstm_cell = TensorLSTMCell(hidden_size=lstm_size, num_units=4)引发以下错误:ValueError: Unknown layer: TensorLSTMCell,它似乎来自于从config
双向
加载它我想知道如何使用model.add功能向
双向
包装器中添加自定义
rnn
层
浏览 3
提问于2017-12-20
得票数 3
回答已采纳
1
回答
默认情况下,TensorFlow embedding_attention_seq2seq方法实现
双向
RNN
编码器吗?
、
,我注意到在默认情况下,如果在以下行中将use_lstm设置为false,则它们使用了use_lstm:single_cell = tf.nn.
rnn
_cell.GRUCell(size) single_cell = tf.nn.
rnn
_cell.BasicLSTMCell(size)if num_layers > 1: cell = tf.nn.
r
浏览 1
提问于2016-10-14
得票数 3
回答已采纳
4
回答
如何在Tensorflow中使用多层
双向
LSTM?
、
、
、
、
我想知道如何在Tensorflow中使用多层
双向
LSTM。我该如何在这个部分中添加一些代码?(n_hidden, forget_bias=1.0)lstm_bw_cell =
rnn
.BasicLSTMCell(n_hidden, forget_bias=1.0) try: outputs, _, _ =
rnn
.static_bidi
浏览 11
提问于2017-09-13
得票数 8
回答已采纳
1
回答
将经常性转变为双经常性
、
、
、
我想把下面的
RNN
转换成
双向
RNN
,我该怎么做呢? #调用函数并编译模型。模型=
RNN
() model.compile(loss='categorical_crossentropy',optimizer=RMSprop(),度量=‘准确性’model.fit(X_train
浏览 2
提问于2022-04-29
得票数 0
回答已采纳
1
回答
在tensorflow 1.0中将单向LSTM细胞转换为
双向
LSTM细胞
、
、
、
我想要将当前的LSTM单元转换为
双向
LSTM。with tf.variable_scope("encoder_scope") as encoder_scope: cell = contrib_
rnn
.MultiRNNCell但我不能通过裁剪将我的LSTM单元转
浏览 6
提问于2020-06-13
得票数 0
回答已采纳
1
回答
tensorflow中
双向
RNN
中如何使用可变批号
、
、
似乎tensorflow不支持
双向
RNN
的可变批大小。_seq_len = tf.fill([batch_size], tf.constant(n_steps, dtype=tf.int64)) dtype="float",
浏览 3
提问于2016-03-23
得票数 2
回答已采纳
1
回答
在tensorflow的
双向
RNN
中,对后向和前向单元使用相同的单元或两个不同的单元有什么区别?
、
、
、
具有两个不同信元(一个用于前向,一个用于后向)的
双向
RNN
与共享相同信元(用于后向和前向的相同信元)的
双向
RNN
之间有什么区别?fw_lstm = tf.nn.
rnn
_cell.BasicLSTMCell(128)(_, _), (fw_final_state, bw_final_state) = tf.nn.bidirectional_dynamic_
rnn
(cell_fw=fw
浏览 0
提问于2018-03-14
得票数 1
1
回答
tensorflow中的LSTM层/单元叠加
、
、
、
、
我正在尝试将LSTM单元叠加在TF中,这就是我所拥有的: cell_fw = tf.contrib.
rnn
.LSTMCellinitializer=tf.orthogonal_initializer()) 这给了我一个错误,就是: ValueError
浏览 3
提问于2017-12-11
得票数 2
回答已采纳
1
回答
如何在TensorFlow中加速多GPU的随机神经网络模型的训练?
、
、
、
、
例如,
RNN
是一个动态的3层
双向
LSTM,隐藏向量大小为200 (tf.nn.bidirectional_dynamic_
rnn
),我有4个GPU来训练模型。
浏览 18
提问于2017-12-12
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
循环神经网络入门帖:向量到序列,序列到序列,双向RNN,马尔科夫化
大脑中的先天RNN或许会对人工RNN提供新见解
【进阶篇】RNN配置
TensorFlow RNN Cell源码解析
手把手教你训练 RNN
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券