Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >TensorFlow报错ValueError: Variable layer1-conv1/weight already exists,

TensorFlow报错ValueError: Variable layer1-conv1/weight already exists,

作者头像
嵌入式视觉
发布于 2022-09-05 05:14:27
发布于 2022-09-05 05:14:27
62600
代码可运行
举报
文章被收录于专栏:嵌入式视觉嵌入式视觉
运行总次数:0
代码可运行

一个程序中有tf.variable_scope()函数,第一次运行报错之后,第二次修改bug再次运行会报如下错误:

详细错误信息

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ValueError: Variable layer1-conv1/weight already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarScope? Originally defined at:

  File "C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\framework\ops.py", line 1740, in __init__
    self._traceback = self._graph._extract_stack()  # pylint: disable=protected-access
  File "C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\framework\ops.py", line 3414, in create_op
    op_def=op_def)
  File "C:\Users\Administrator\Anaconda3\lib\site-packages\tensorflow\python\framework\op_def_library.py", line 787, in _apply_op_helper
    op_def=op_def)

报错原因

tf.name_scope() 主要是用来管理命名空间的,这样子让我们的整个模型更加有条理。而 tf.variable_scope() 的作用是为了实现变量共享,它和 tf.get_variable() 来完成变量共享的功能。

解决办法

我是在Anaconda3中运行,关掉jupyter程序,重新打开jupyter,再次运行即没问题。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-09-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
tensorflow变量命名空间与可视化
variable_scope 使用tf.variable_scope定义的命名空间,只要空间名称不同,定义的变量互不干挠,即使函数name参数相同 如果是在相同命名空间下, 如果是不可重用的(reuse=False),tf. get_variable函数会查找在当前命名空间下是否存在由tf.get_variable定义的同名变量(而不是tf.Variable定义的),如果不存在,则新建对象,否则会报错 如果是可重用的(reuse=True),如果存在,则会返回之前的对象,否则报错, tf. V
用户1733462
2018/06/07
1K0
Tensorflow教程(十三) tf.Variable() 和tf.get_variable()1 简介2 区别3 实例
1 简介 tf.Variable() tf.Variable(initial_value=None, trainable=True, collections=None, validate_shape=True, caching_device=None, name=None, variable_def=None, dtype=None, expected_shape=None, import_scope=None) tf.get_variable() tf.get_variable(name, shape
致Great
2018/06/21
1K0
tensorflow学习笔记(二十三):variable与get_variable
tensorflow中有两个关于variable的op,tf.Variable()与tf.get_variable()下面介绍这两个的区别
ke1th
2019/05/26
6520
运行tensorboard报错:ValueError: Duplicate plugins for name projector
环境里安装了多个版本的tensorboard和tensorflow,按照提示卸载并重新安装:
JOYCE_Leo16
2024/03/19
4840
tensorflow学习笔记(二十九):merge_all引发的血案
本文介绍了如何使用TensorFlow进行模型训练和推理,并探讨了在训练和推理过程中可能遇到的错误和解决方法。
ke1th
2018/01/02
1.5K0
tensorflow:上下文管理器 与 name_scope, variable_scope
本文介绍了 TensorFlow 2.x 版本中的一些新特性,包括 TensorFlow 的安装、使用、模型构建、以及模型部署等方面的内容。同时,文章还介绍了如何使用 TensorFlow 2.x 版本中的 Keras API 和 tf.keras 模块构建深度学习模型,并给出了一个例子。此外,文章还介绍了 TensorFlow 2.x 版本中的新性能优化,如自动微分、GPU 加速等。
ke1th
2018/01/02
1.5K0
[编程经验] Tensorflow中的共享变量机制小结
今天说一下tensorflow的变量共享机制,首先为什么会有变量共享机制? 这个还是要扯一下生成对抗网络GAN,我们知道GAN由两个网络组成,一个是生成器网络G,一个是判别器网络D。G的任务是由输入的隐变量z生成一张图像G(z)出来,D的任务是区分G(z)和训练数据中的真实的图像(real images)。所以这里D的输入就有2个,但是这两个输入是共享D网络的参数的,简单说,也就是权重和偏置。而TensorFlow的变量共享机制,正好可以解决这个问题。但是我现在不能确定,TF的这个机制是不是因为GAN的提出
用户1622570
2018/04/11
2.2K0
[Tensorflow] TensorFlow之Hello World!(2)
TensorFlow入门的第一篇和大家聊了?graph图,op操作,node节点。对TensorFlow有了一个简单的认识,今天主要和大家分享的是TensorFlow中constant 常量, Variable变量,Placeholder占位符,Session启动图,fetches,feed等几个基本概念。 接下来我们通过一些简单的栗子分别来学习一下他们都是什么鬼。 # constant # 导入模块 import tensorflow as tf """ 怎么定义常量,常量的意思和我们平时理解的常量是一
用户1622570
2018/04/11
9980
tensorflow: 对variable_scope进行reuse的两种方法
在tensorflow中,为了 节约变量存储空间 ,我们常常需要通过共享 变量作用域(variable_scope) 来实现 共享变量 。
JNingWei
2018/09/28
8K0
TensorFlow API 树 (Python)
Python API Guides   (仅记录日常用到的api) TensorFlow API 树 (Python) Tensor转换:  Ref 生成tensor tf.string_to_number tf.to_double tf.to_float tf.to_bfloat16 tf.to_int32 tf.to_int64 tf.cast tensor形状op tf.shape tf.size tf.rank tf.reshape tf.squeeze tf.expand_di
JNingWei
2018/09/28
1.1K0
tf.variable和tf.get_Variable以及tf.name_scope和tf.variable_scope的区别
在训练深度网络时,为了减少需要训练参数的个数(比如具有simase结构的LSTM模型)、或是多机多卡并行化训练大数据大模型(比如数据并行化)等情况时,往往需要共享变量。另外一方面是当一个深度学习模型变得非常复杂的时候,往往存在大量的变量和操作,如何避免这些变量名和操作名的唯一不重复,同时维护一个条理清晰的graph非常重要。 ==因此,tensorflow中用tf.Variable(),tf.get_variable(),tf.Variable_scope(),tf.name_scope()几个函数来实现
10JQKA
2018/05/09
7790
【Kaggle竞赛】AlexNet模型定义及实现
在图像识别/目标检测领域,基本上CNN的天下,从基础的AlexNet,再到后面更深的GoogleNet、VGGNet等,再到收敛速度更快、泛化性更强ResNet等残差网络,从2012年到现在CNN网络在图像识别/目标检测领域可谓是一个很好的方法。
嵌入式视觉
2022/09/05
3740
【Kaggle竞赛】AlexNet模型定义及实现
tf.variable_scope
用于定义创建变量(层)的ops的上下文管理器。这个上下文管理器验证(可选的)值来自同一个图,确保图是默认图,并推入名称范围和变量范围。如果name_or_scope不为None,则按原样使用。如果name_or_scope为None,则使用default_name。在这种情况下,如果以前在相同的范围中使用过相同的名称,则通过在名称后面附加_N使其惟一。变量作用域允许您创建新变量并共享已创建的变量,同时提供检查以防止意外创建或共享。
狼啸风云
2019/06/17
2K0
tf.get_variable
如果initializer初始化方法是None(默认值),则会使用variable_scope()中定义的initializer,如果也为None,则默认使用glorot_uniform_initializer,也可以使用其他的tensor来初始化,value,和shape与此tensor相同
周小董
2019/03/25
1.2K0
tf.constant_initializer
一个类,初始化器,它生成具有常量值的张量。由新张量的期望shape后面的参数value指定。参数value可以是常量值,也可以是类型为dtype的值列表。如果value是一个列表,那么列表的长度必须小于或等于由张量的期望形状所暗示的元素的数量。如果值中的元素总数小于张量形状所需的元素数,则值中的最后一个元素将用于填充剩余的元素。如果值中元素的总数大于张量形状所需元素的总数,初始化器将产生一个ValueError。
狼啸风云
2022/10/31
4940
[Tensorflow] Faster R-CNN 和自定义 VOC 数据集
看了pascal_voc.py代码,可以把代码的jpg拼接改成png,这样可以不做上一步.
wOw
2018/09/18
3.1K4
tensorflow学习笔记(十七):name&variable scope
水平有限,如有错误,请指正! 在tensorflow中,有两个scope, 一个是name_scope一个是variable_scope,这两个scope到底有什么区别呢? 先看第一个程序: wit
ke1th
2019/05/26
1.1K0
为stackGan一个工程创建一个虚拟环境,python 2.7 tensorflow0.12-tensorflow 1.01
安装conda 下载地址:https://repo.continuum.io/miniconda/Miniconda2-latest-Linux-x86_64.sh 下载完成后执行: bash Miniconda2-latest-Linux-x86_64.sh 安装地址:xlz/Miniconda 刷新一下配置文件:source /home/xlz/.bashrc #这里是管理员权限吼 创建实验环境:conda create -n stackGan python=2.7 #我们创建一个虚拟2.7环
水球喵子
2018/04/10
1.1K0
为stackGan一个工程创建一个虚拟环境,python 2.7 tensorflow0.12-tensorflow 1.01
深度学习(2)——tensorflow可视化TensorFlow变量作用域TensorFlow可视化示例
前言:主要介绍一下,TensorFlow变量作用域和可视化,变量作用域能更好底可视化展示数据流图 TensorFlow变量作用域 通过tf.Variable我们可以创建变量,但是当模型复杂的时候,需要构建大量的变 量集,这样会导致我们对于变量管理的复杂性,而且没法共享变量(存在多个相 似的变量)。针对这个问题,可以通过TensorFlow提供的变量作用域机制来解决, 在构建一个图的时候,就可以非常容易的使用共享命名过的变量。 变量作用域机制在TensorFlow中主要通过两部分组成: tf.get_va
DC童生
2018/06/20
4570
共享变量 tensorflow解读
你可以在怎么使用变量中所描述的方式来创建,初始化,保存及加载单一的变量.但是当创建复杂的模块时,通常你需要共享大量变量集并且如果你还想在同一个地方初始化这所有的变量,我们又该怎么做呢.本教程就是演示如何使用tf.variable_scope() 和tf.get_variable()两个方法来实现这一点.
用户1332428
2018/07/26
7760
相关推荐
tensorflow变量命名空间与可视化
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验