我对TF变量的重用感到非常困惑。对于方法rnn,我能够找到下面这行代码:
if time > 0: vs.get_variable_scope().reuse_variables()
但是,对于dynamic_rnn (我需要使用的方法),我没有找到任何reuse_variable代码行或reuse=True。
rnn_cells模块中的所有RNN单元都使用_linear方法进行初始化,该方法不会检查变量是否已创建,但在LSTM_cell中,_get_concat_variable会很好地检查graph_key中是否存在变量的名称。
那么dynamic_rnn不会重用这个变量吗?我
我正在尝试编写一个基于两个因素的DF子集的自动绘图生成器。
我一步一步地解释自己。这里是我的DF的一部分
YEAR RN DATE NOM SITE LONG SP SUMNB NB100 DIFF IA
2001 RNN066 2001-04-26 RAVIN DE VALBOIS RNN066-Valbois Pel Humbert 231 Aphantopus hyperantus (Linnaeus, 1758) 0.000000 0.0000000 NA NA
2001 RNN066 20
总的来说,我正在使用Tensorflow编写一个RNN模型。我继承了RNNCell并定制了我自己的单元格。最后,我使用dynamic_rnn来构建整个RNN。细节是,我想要将一个张量从形状n,m转换为n,m,1。我使用两种方法来实现:
tf.reshape(matrix, [n, m, 1]) # the first method
tf.expand_dims(matrix, -1) # the second method
我期望的是,使用这两种方法,我将获得完全相同的训练和预测结果(所有随机种子都是固定的)。但是结果是不同的。我真的很困惑。
我想有一个RNN模型,并教它学习生成"ihello“,从”地狱“。我是新来的毕道尔,并遵循视频中的指令来编写代码。我编写了两个名为train.py和model.py的python文件。我是model.py
#----------------- model for teach rnn hihell to ihello
#----------------- OUR MODEL ---------------------
import torch
import torch.nn as nn
from torch import autograd
class Model(nn.Module)
我尝试在Tensorflow中构建一个情感分析模型
def rnn_lstm(weights, biases, data_x, sequence_length, vocab_size, embedding_size):
# Use Tensor Flow embedding lookup and convert the input data set
with tf.device("/cpu:0"):
embedding = tf.get_variable("embedding43", [vocab_size, embedding_
在我的代码中:(在tf1.0上工作得很好)
from tensorflow.contrib.rnn.python.ops import core_rnn
from tensorflow.contrib.rnn.python.ops import core_rnn_cell
from tensorflow.contrib.rnn.python.ops import core_rnn_cell_impl
用tf1.2报告错误:从tensorflow.contrib.rnn.python.ops导入core_rnn ImportError:无法导入名称“core_rnn”
~/anaconda3/lib/python3.6/site-packages/tflearn/layers/recurrent.py in <module>()
12 # Fix for TF 1.1.0 and under
13 from tensorflow.contrib.rnn.python.ops.core_rnn import static_rnn as _rnn, static_bidirectional_rnn as _brnn
---> 14 from tensorflow.python.ops.rnn impo
我目前正在使用lstm和rnn一段时间。我在tensorflow和keras中都尝试过。然而,有些事情让我真的很困惑。就像在tensorflow中一样,如果我想在for循环中定义多个rnn作为解码器,我可以编写如下代码:
with tf.variable_scope("decoder-rnn") as vs:
# We use an LSTM Cell
cell_utterance = tf.nn.rnn_cell.LSTMCell(hparams.rnn_dim,
fo