腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
如何
使用
tensorflow
以
编程
方式
确定
可用
的
GPU
内存
?
、
、
对于矢量量化(k-means)程序,我想知道当前
GPU
(如果有)上
的
可用
内存
量。这是选择最佳批处理大小所必需
的
,以便在整个数据集上运行尽可能少
的
批处理。我已经写了以下测试程序: import
tensorflow
as tffrom kmeanstf import KMeansTF print("
GPU
Available这是我
的
系统上
的
典型输出(ubuntu 18
浏览 250
提问于2020-01-03
得票数 16
回答已采纳
14
回答
如何
在
tensorflow
中获得当前
可用
的
GPU
?
、
、
我有一个
使用
分布式
TensorFlow
的
计划,我看到
TensorFlow
可以
使用
GPU
进行培训和测试。bus id: 0000:01:00.0) 我
的
问题是
如何
从
TensorFlow
获得关于当前
可用
GPU
的
信息?我可以从日志中获得加载
的
GPU
信息,但我想
以
一种更加复杂、
编程
的
方式</e
浏览 23
提问于2016-07-25
得票数 227
回答已采纳
1
回答
如何
从日志
的
输出判断
Tensorflow
是否
使用
GPU
?
、
、
、
如果我尝试运行一个命令,告诉你
Tensorflow
是否
使用
GPU
。>>> sess = tf.Session(config=tf.ConfigProto(log_device_placement=True)) 命令返回这个,现在我不能理解是否
使用
GPU
的
张量流。2019-09-25 17:08:47.509729: I
tensorflow
/core/common_runtime/
gpu
/<em
浏览 3
提问于2019-09-26
得票数 1
1
回答
同一台机器上
的
一组
GPU
和同一型号
的
GPU
工作良好,另一组则得到OOM错误。
、
、
我正在
使用
多个
GPU
(num_gpus = 4)来训练一个模型与多个塔。该模型在一组
GPU
上进行了良好
的
训练:CUDA_VISIBLE_DEVICES = 0,1,2,3,而在第一次图求值时得到了CUDA_VISIBLE_DEVICES = 0,1,4,5
的
OOM问题。空闲
内存
: 7.81GiB W创建上下文当前活动;现有:0xd25591b0i
tensorflow
/core/common_runtime/
gpu
浏览 3
提问于2017-04-15
得票数 0
1
回答
TensorFlow
数据集导致内核在迭代期间终止进程
、
、
、
、
我想创建一个用于训练
TensorFlow
模型
的
数据管道。数据存储在非常大
的
HDF5文件(250+ GB)中。我已经写了一个适用于较小输入文件
的
管道,但最终在消耗了太多RAM+swap后被内核终止(通过监控验证了这一点)。import
tensorflow
as tf """ Implements a generator that can这导致得出结论,
TensorFlow
应为
浏览 6
提问于2021-12-03
得票数 0
1
回答
深度学习CNN吃VRAM
、
、
、
我最近开始构建自己
的
小型深度学习设备,配备了ryzen 53600处理器、32
GPU
内存
和8gp VRam
的
RTX2080Super
使用
tensorflow
处理CNN(这是我
的
大部分工作)时,我发现大部分VRam几乎立即被占用(7.8
GPU
中
使用
了7.8
GPU
),而
GPU
利用率约为35% 为了与tesnofrflow v2兼容,我安装了最新
的
驱动程序并运行了CUDA v10
浏览 33
提问于2020-01-31
得票数 0
回答已采纳
2
回答
如何
以
编程
方式
确定
GPU
的
内存
总线宽度和时钟频率?
、
、
如何
以
编程
方式
确定
GPU
的
内存
总线宽度和
内存
时钟频率?我想
使用
这些数字来计算最大理论
内存
带宽。我最感兴趣
的
是NVIDIA
GPU
。
浏览 2
提问于2010-07-10
得票数 0
2
回答
Keras:实际
使用
的
GPU
内存
大小
、
、
、
我正在
使用
Keras和
Tensorflow
后端,查看nvidia-smi并不足以理解当前
的
网络架构需要多少
内存
,因为似乎
Tensorflow
只是分配所有
可用
的
内存
。所以问题是
如何
找出真实
的
GPU
内存
使用
情况?
浏览 1
提问于2017-05-18
得票数 9
1
回答
如何
限制数据自动化系统中
的
GPU
内存
大小?
、
、
我正在实现一个核心外
的
算法。我可以
使用
的
GPU
内存
大小是4GB。但是,为了测试和比较我
的
算法和其他较小数据集上
的
版本,我想限制我
可用
的
GPU
上
的
内存
大小。有办法这样做吗?(我总是不能
使用
当前
的
大量
内存
,但是,我必须表明,如果其他版本
使用
的
内存
超过
可用
浏览 6
提问于2014-05-13
得票数 0
回答已采纳
1
回答
无论批处理大小,
Tensorflow
都
使用
相同数量
的
gpu
内存
。
我是
tensorflow
的
新手,我正试图在CIFAR 10数据集上进行培训。我注意到,无论我
使用
什么样
的
批次大小,根据我
的
nvidia控制面板,我
使用
的
gpu
内存
的
97%。我尝试了100到2
的
批处理大小,在每种情况下,我
的
gpu
内存
使用
量总是97%。为什么要这么做?
浏览 4
提问于2016-06-12
得票数 6
回答已采纳
1
回答
如何
估算深度学习需要多少
GPU
内存
?
、
、
、
我们正在尝试
使用
tensorflow
训练我们
的
模型
以
进行对象识别。因为有太多
的
图像(100
GPU
),我猜我们现在
的
GPU
服务器(1*2080Ti)无法工作。我们可能需要购买一个更强大
的
,但我不
确定
如何
估计我们需要多少
GPU
内存
。有没有一些方法来估计需求?谢谢!
浏览 43
提问于2020-03-30
得票数 1
回答已采纳
1
回答
在
Tensorflow
中
使用
GPU
内核进行并行计算
、
我正在为一个物体检测系统开发
tensorflow
-
gpu
和pyqt5。 我已经开发了一个基于神经网络模型
的
项目,它是由
tensorflow
训练
的
,它很好,但我需要加快检测率。我
的
图形处理器是GTX1060,中央处理器是Corei7。
如何
使用
CUDA核心来划分我
的
计算? 我已经搜索了很多文章,我在*stack** overflow*中问了几次,但没有得到任何回应。
如何
使用
tensorflow
浏览 28
提问于2020-04-06
得票数 0
回答已采纳
6
回答
有什么方法可以
确定
TensorFlow
使用
多少
GPU
内存
?
、
Tensorflow
倾向于在其
GPU
上预先分配整个
可用
内存
。对于调试,是否有一种方法可以知道实际
使用
了多少
内存
?
浏览 9
提问于2016-03-21
得票数 30
回答已采纳
1
回答
找到有足够
内存
的
GPU
、
我想
以
编程
的
方式
找出
可用
的
GPU
及其当前
内存
的
使用
情况,并根据它们
的
内存
可用
性
使用
其中
的
一个
GPU
。我想在PyTorch上做这个。我对基于PyTorch (
使用
库函数)
的
解决方案感兴趣。任何帮助都将不胜感激。
浏览 0
提问于2018-04-01
得票数 2
回答已采纳
1
回答
Tensorflow
为OOMKilled服务或与Kubernetes一起驱逐舱
、
我正在部署
tensorflow
服务映像(
tensorflow
/ serving :最新-
GPU
)和Kubernetes (GKE),
GPU
节点(K80)托管在GCP上。
Tensorflow
服务将每个新版本
的
模型都提取出来并加载,当它完成后,他会卸载旧
的
版本(但看起来他把它保存在
内存
中) 当我在主机上
的
最大
可用
资源下
使用
极限/请求时,pod完成了OOMKilled,因为
浏览 1
提问于2019-07-24
得票数 4
回答已采纳
3
回答
卷积神经网络
的
记忆估计
、
、
、
大家好, 我想知道在
GPU
上运行模型之前,是否有任何方法或方法来找到<em
浏览 8
提问于2017-05-31
得票数 1
回答已采纳
1
回答
TX2
GPU
未正确分配
内存
、
、
、
我试图在TX2上运行一个代码,但是分配
GPU
内存
使用
的
tensorflow
代码似乎
以
一种奇怪
的
方式
工作。下面是分配
内存
的
代码:config.
gpu
_options.per_process_
gpu
_memory_fraction = 0.0 config.
gpu
_options.visible_device_li
浏览 2
提问于2019-04-29
得票数 2
1
回答
无多
GPU
加速GAN
我最近买了第二个
gpu
,我试图更新我
的
代码,以利用额外
的
硬件。我尝试了
Tensorflow
中概述
的
方法。但是,当我用2个
gpu
运行我
的
代码时,它
的
运行速度并不快,事实上,它
的
运行速度比我
使用
单个
gpu
运行
的
速度慢了10%。看看资源管理器,它说我
的
两个gpus
的
容量都在50%左右。我
的
第一个想法是我
的
输入管道有
浏览 0
提问于2019-04-05
得票数 0
1
回答
估计服务Keras模型所需
的
资源
、
、
现在我想估算一下我需要多少资源(CPU、
GPU
、RAM等)。 有没有人有关于函数/经验法则
的
建议,可以对此有所帮助?我找不到任何有用
的
东西。提前感谢!
浏览 17
提问于2019-01-20
得票数 2
回答已采纳
2
回答
Keras花了很长时间,不知道我是在
使用
GPU
还是CPU
、
、
当我运行我
的
程序时,我得到了这个信息: 2019-07-23 16:10:32.607412: I
tensorflow
/compile
浏览 2
提问于2019-07-23
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorRT与TensorFlow 1.7 集成
TensorFlow修炼之道(3)——计算图和会话(Graph&Session
北大、微软亚洲研究院:高效的大规模图神经网络计算
谷歌称 TensorFlow 的 OpenCL 可以将推理性能提高一倍
深度学习、GPU计算及分布式机器学习原理简介
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券