腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
实际的图形处理器
内存
使用率与glDeleteXXXX?
、
、
、
GPU
驱动程序是否必须按需从应用程序释放
GPU
内存
?如果不是,是否会使应用程序可能想要做任何
GPU
内存
资源管理无效,因为它是从实际
内存
中“移除的层”? 我分配了很多纹理,然后释放它们。当分配时,我可以看到"
GPU
系统字节“(在进程资源管理器中)迅速增加(数量大大超过了图像的硬盘空间-也许它们在
GPU
中是解压缩的,所以占用了很多空间)。然后,如果继续这样做,我看到图形处理器
内存
使用量逐渐增加,但在此期间,我一直在计算我的glD
浏览 3
提问于2017-03-23
得票数 0
2
回答
使用Tensorflow的CPU/
GPU
内存
使用量
、
、
我想运行一个在
服务器
上也使用Tensorflow的Python脚本。当我在没有会话配置的情况下运行它时,进程会分配所有
GPU
内存
,从而阻止任何其他进程访问
GPU
。
服务器
规范如下: 在Tensorfl
浏览 9
提问于2017-05-16
得票数 1
3
回答
Apache mod_wsgi django调用keras模型时,如何释放占用的
GPU
内存
?
、
、
、
我的
服务器
配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
在某些应用程序上禁用
GPU
、
我试图在Nvidia
GPU
上训练一些神经网络,但是桌面环境(KDE)似乎正在占用
GPU
:Sat Apr 22 09:04:16 2017 |-------------------------------+----------------------+----------------------+| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage |
GPU
-Util
浏览 1
提问于2017-04-22
得票数 1
1
回答
使用tensorflow时AWS g2.8x大性能和
内存
不足问题
、
、
、
我目前正在Tensorflow上训练一个递归网络来解决文本分类问题,并且遇到了性能和
内存
不足的问题。1)性能问题:除非我错过了什么,从表面上
看
,每个设备都在等待一些事情发生。2)
内存
不足问题: 如果我将节点数量增加到200,它会给我一个<
浏览 15
提问于2016-09-08
得票数 2
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
1
回答
OOM在分配形状为[3075200,512]的张量并输入浮动时:为什么?
、
、
我必须试验512*512的图像大小,但我得到
内存
溢出错误。我不能再缩小图像大小了,如果我
看
gpustat,它是32 if,但是我不知道为什么
内存
错误会弹出。我不知道在哪里,如何找到和增加可分配的
gpu
内存
。1.减少第2层中神经元的数量。使用较小的批次大小(当前批处理大小5) 3.将最大池大小增加到使用4.增加步幅5.删除6. config = tf.ConfigProto() config.
gpu
_options.allow_growthtf.ConfigPr
浏览 2
提问于2020-10-04
得票数 0
回答已采纳
1
回答
Gunicorn工作者,用于
GPU
任务的线程,以增加并发/并行性。
、
、
、
、
我正在使用烧瓶与Gunicorn实现一个人工智能
服务器
。
服务器
接收HTTP请求并调用该算法(用py手电筒构建)。计算在nvidia
GPU
上运行。本机有8 vCPUs,20 GB
内存
,1
GPU
,12 GB
内存
。具体问题是 如何增加
浏览 5
提问于2021-02-09
得票数 0
2
回答
错误: OOM分配带有形状的张量
、
、
、
错误: OOM当分配具有形状800,1280,3的张量,并通过分配器
GPU
__bfc在/job:localhost/replica:0/task:0/device:
GPU
:0键入float时[Node:
浏览 83
提问于2018-06-08
得票数 16
1
回答
Tensorflow分配所有
GPU
,尽管另有说法
、
SInce
服务器
是与其他同事共享的,我想限制我的脚本最多只能使用
服务器
内存
的1/3。为了实现这一点,我做了以下工作: with tf.Graph().as_default():
gpu
_options = tf.GPUOptions(allow_growth=True, per_process_
gpu
_memory_fraction=
gpu
_options) with tf.Session(conf=session_conf) as sess:
浏览 0
提问于2017-05-26
得票数 0
1
回答
如何改进氪星以对抗
GPU
的开采
、
我知道氪星的设计是为了减少
GPU
/ASIC的优势。 我们现在有莱特奥作为这方面的一个现实世界的例子。然而,它的效果并不完美。大多数硬币都是由
GPU
开采的,尽管优势可能比SHA-256的优势要小。
浏览 0
提问于2013-04-17
得票数 8
回答已采纳
2
回答
针对昂贵资源的kubernetes调度
、
、
、
现在我们想用
GPU
节点来扩展它(因此这将是Kubernetes集群中唯一拥有
GPU
的节点)。 我们希望避免Kubernetes在这些节点上调度pod,除非它们需要
GPU
。并不是所有的管道都可以使用
GPU
。绝大多数仍然只占用大量CPU资源。 配备
GPU
的
服务器
可能非常昂贵(例如,Nvidia DGX每台
服务器
可能高达150美元/k)。资源,如CPU和
内存
,因此它们将不得不等待非
GPU
作业/容器完成)。是否有办法在Ku
浏览 24
提问于2018-12-20
得票数 1
回答已采纳
2
回答
VBO使用的"OpenGL
内存
“在哪里?
、
、
、
我正在学习如何使用VBO,正如书中所说, 那么,
GPU
在这方面到底能处理些什么呢?假设"OpenGL
内存
“可以存储数百万多边形的顶点数据,这是可以接受的吗?移动设备中的
GPU
呢?虽然开发人员习惯于在CPU上设置
内存
限制的参考框架,但学习OpenGL在一定程度上是很有挑战性的,因为我对CPU不太了解,也不太了解他们对硬件的期望。
浏览 3
提问于2013-02-28
得票数 6
回答已采纳
2
回答
分布式tensorflow的PS
服务器
是否自动使用所有
GPU
?
、
FLAGS.job_name, server.join()|
GPU
PID Type Process name Usage | |==================================C
浏览 3
提问于2017-04-13
得票数 0
1
回答
双
GPU
中的
内存
使用(多
GPU
)
、
、
我正在使用两个配置相同的
GPU
作为我的高性能
GPU
计算使用OpenCL。其中一个卡是为显示目的连接的,两个程序compiz和x
服务器
总是使用大约200-300 MB的
内存
。我的问题是,当使用这些
GPU
进行计算时,我只能使用
GPU
中的部分
内存
,用于显示目的,而第二个
GPU
则可以使用整个全局
内存
。在我的例子中,我使用两个Nvidia Quadro 410,它有192个cuda核,512 MB作为
内存
,但503 MB可用。
浏览 7
提问于2016-06-02
得票数 0
2
回答
多个
GPU
的一个实例或一个
GPU
的多个实例
、
、
、
、
例如,我使用
GPU
运行多个模型,所有作业组合在一起都可以运行在4个
GPU
上。多个作业可以在同一个
GPU
上运行,因为
GPU
内存
可以处理它。将所有4个
GPU
作为其一部分,并在一个实例上运行所有作业是一个更好的主意吗?还是应该使用多个实例,每个实例上有一个
GPU
? 读取文件的延迟。显然,我需要相当多的vCPU和大量
内存
来扩展IOPS,因为GPC是以这种方式扩展IOPS的。解决这个问题的最好方法是什么?如果有人对此有更多了解的话,请
浏览 2
提问于2020-10-23
得票数 0
回答已采纳
2
回答
CUDA与web开发
显然,
GPU
的每个核心都可以处理一个请求,而不是一个主处理器(系统的CPU)处理所有请求。从表面上
看
,这似乎是可能的,也许使用
GPU
+ Redis数据库中的模板在
GPU
GDDR5中?
浏览 4
提问于2010-10-21
得票数 1
回答已采纳
1
回答
没有
GPU
的
服务器
适合远程桌面吗?
、
、
、
我想买一个
服务器
4核心英特尔XeonE3-1220 v5 (16 GB
内存
),但没有
GPU
。 我们需要
GPU
在
服务器
端,以正常显示桌面屏幕通过remore桌面,还是我们需要
GPU
在客户端?还是两边的?
浏览 0
提问于2017-07-31
得票数 1
回答已采纳
2
回答
如何减少CUDA上下文大小(多进程服务)
、
、
、
、
减少了
GPU
上下文存储现在,回到这个例子。没有议员:议员们:不幸的是,每个进程仍然占用几乎相同的
内存
量(~300 of )。有办法降低每个进程的
内存
消耗吗?
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
库达走出记忆梦想之旅
、
、
、
但昨天,我想重新训练它,使它更好(再次尝试使用相同的照片),现在,它把这个抛出
内存
异常: 我想知道是否有人有同样的问题,并知道为什么这是现在,而
浏览 10
提问于2022-10-03
得票数 -1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
GPU事务性内存技术研究
如何选购内存?外行看频率,内行看时序
服务器内存和普通内存有什么区别?普通电脑能用服务器内存吗?
从qt编程看内存分区
一文读懂AI时代GPU的内存新宠-HBM
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券