腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(114)
视频
沙龙
1
回答
TensorFlow:变量范围内未设置的“重用”
、
() Out[5]: True Out[7]: True -------
浏览 4
提问于2016-08-25
得票数 2
回答已采纳
2
回答
tf.get_variable_scope().
reuse_variables
()返回None
tf.get_variable_scope().
reuse_variables
() tower_grads.append(grads) print(tf.get_variable_scope().
reuse_variables
())打印None。
浏览 0
提问于2016-06-05
得票数 1
1
回答
在
reuse_variables
()中使用v1.0+是否有危险?
在有关升级到Tf1.0 的文档中,有以下不祥的语句:with tf.variable_scope(tf.get_variable_scope(), reuse=True): 我更喜欢坚持使用.
reuse_variables
文档没有明确说明是否有反对建议的计划,或者使用.
reuse_variables
()到底有什么问题。
浏览 1
提问于2017-04-04
得票数 4
1
回答
在张量流中重用LSTM单元
、
、
我想用一个LSTM单元训练多个案例。我认为发生这个错误是因为我试图重用LSTM单元。我找不到解决这个错误的方法。rnn_si
浏览 9
提问于2017-01-19
得票数 0
1
回答
Tensorflow多GPU训练及可变范围
、
为了共享跨GPU塔的可训练变量(例如权重和偏差),reuse标志将使用tf.get_variable_scope().
reuse_variables
()打开,如cifar10示例中所示。,请参阅 但是,Tensorflow创建者的cifar10示例似乎表明,可以使用tf.get_variable_scope().
reuse_variables
()实现跨GPU塔共享变量的重用。
浏览 4
提问于2017-04-04
得票数 0
1
回答
使用ValueError创建暹罗网络时的TensorFlow
、
我正在尝试使用暹罗网络来确定两个输入是否相同。以下是暹罗网络的简要概述: graph = tf.Graph() with graph.as_default(): with tf.variable_scope
浏览 0
提问于2017-05-02
得票数 0
2
回答
如何在Tensorflow中将变量重用设置为False?
在Tensorlfow中,我们可以使用True将变量重用设置为tf.get_variable_scope().
reuse_variables
(),有没有办法在不离开作用域的情况下将其设置为False?
浏览 4
提问于2016-06-19
得票数 3
回答已采纳
1
回答
我的TensorFlow运行cifar10_multi_gpu_train.py有什么问题?
、
我的系统是:我的GPU:运行示例模型(如mnist和cifar10单GPU版本)是可以的。所以我觉得我安装tf没问题。python python cifar10_multi_gpu_train.py --num_gpus=4 ValueError:变量卷积1/权重/指数移动平均/不存在,或者不是用tf.get_variable()创建的。你是
浏览 2
提问于2016-12-29
得票数 0
1
回答
Tensorflow多gpu示例错误:变量卷积1/权重/指数移动平均/不存在
、
、
我正在运行本教程中提到的代码:我正在Ubuntu14.04上的AWS中的g2.4x大型计算机上运行代码。单个gpu示例运行良好,没有任何错误。0.12.head ubuntu@ip-xxx-xx-xx-xx:~/pythonworkspac
浏览 5
提问于2017-02-01
得票数 2
回答已采纳
1
回答
tensorflow操作在哪里运行?cpu还是gpu?
loss = _tower_loss(images_splits[i], labels_splits[i], num_classes, scope,
reuse_variables
浏览 0
提问于2017-08-11
得票数 0
1
回答
Tensorflow batch_norm在测试时不能正常工作(is_training=False)
、
、
num_classes=25, is_training=True, dropout_keep_prob=0.8, spatial_squeeze=True, reuse=
reuse_variables
num_classes=25, is_training=False, dropo
浏览 19
提问于2017-03-14
得票数 8
1
回答
在tensorflow 2.0中获取可变范围
、
、
、
我正在使用新版本的tensorflow (2.0.0 alpha),我不知道为什么它不允许我运行:我得到了以下错误:
浏览 3
提问于2019-05-24
得票数 3
2
回答
tensorflow嵌入在第一个RNN示例之后不存在
、
我已经设置了一个print语句,并且我注意到在第一批输入RNN时,存在嵌入,但是在第二批之后,它们不存在,我得到以下错误: def add_embedding(self): embedding = tf.get_variable("Embedding", [len(
浏览 2
提问于2016-12-20
得票数 2
回答已采纳
1
回答
tensorflow中的多个gpus和AdamOptimizer
、
optimizer.compute_gradients(loss) tf.get_variable_scope().
reuse_variables
() average_grad = average_gradients_layer(replica_gradssys.stdout.write('\r'+str(step)+'
浏览 3
提问于2017-04-07
得票数 3
2
回答
Tensorflow获取范围内的所有gradient_and_variable对
由于本文需要两个示例,我使用opt.compute_gradients(loss)和tf.get_variable_scope().
reuse_variables
()获得了[grad_and_vars1
浏览 1
提问于2017-08-02
得票数 0
回答已采纳
1
回答
如何理解tensorflow的切片函数?
("RNN"): if time_step > 0: tf.get_variable_scope().
reuse_variables
浏览 2
提问于2017-06-19
得票数 0
回答已采纳
1
回答
Tensorflow:修改隐藏状态的计算
、
、
我想稍微修改一下在LSTM的每个时间步计算(并因此重新输入)的隐藏状态。例如,向常规LSTM过程产生的隐藏状态添加一个常量向量这样简单的事情。我并不打算修改常规的gate机制--我更多地将其看作是对通常由LSTM创建的最终隐藏状态的计算。我觉得创建自己的LSTM单元有点过头了。或者,OutputProjectionWrapper似乎可以实现这一目标,尽管我并不打算创建新的输出,只需修改隐藏状态。
浏览 16
提问于2017-01-21
得票数 1
回答已采纳
0
回答
tensorflow多gpu共享变量
、
for i in xrange(FLAGS.num_gpus): tf.get_variable_scope().
reuse_variables
浏览 6
提问于2017-06-12
得票数 1
回答已采纳
4
回答
坦索弗洛:如何得到张量的名字?
、
、
我试过: tf.get_variable_scope().
reuse_variables
()with tf.variable_scope('scale_1') as scope_conv: tf.get_variable_scope().
reuse_variables
(
浏览 3
提问于2016-04-14
得票数 50
回答已采纳
1
回答
Tensorflow时间线显示,梯度平均值是使用多个GPU时的性能瓶颈
、
features_splits = tf.split(train_feature, num_or_size_splits=c.num_gpus, axis=0)
reuse_variables
as scope:
reuse_variables
= True
浏览 0
提问于2018-04-15
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券