腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在仍在运行
GPU
的NVidia驱动程序的同时,为监视器
使用
Intel内置图形。
、
、
、
是否可以配置Ubuntu,这样它就可以
使用
Intel内置的图形启动监视器,但仍然让NVidia驱动程序运行
GPU
?我之所以问这个问题,是因为我主要是为了深入学习而
使用
GPU
,我还想为
GPU
保留
GPU
。
浏览 0
提问于2020-08-15
得票数 1
1
回答
从两个上下文执行CUDA内核可以重叠吗?
、
我
使用
/path_to_cuda_install/extras/CUPTI/sample/activity_trace_async来跟踪应用程序。我看到的这些错误的CUPTI值是由于
使用
不当还是其他原因?说明: MPS未启用,运行在单
GPU
上 更新:文件,这似乎是CUDA6.5的一个已知问题,等待与CUDA7进行测试的机会(在多个用户之间共享一个
GPU
,并需要一个暂时切换到CUDA7的非活动窗口)
浏览 1
提问于2015-06-29
得票数 1
1
回答
如果
服务器
是无头的(CentOS 7),是否有办法使
GPU
成为额外的CPU核心?
、
、
、
、
我有一个没有图形界面的centOS
服务器
。我只通过ssh连接到它。因此,
GPU
的
使用
可能并不多。我想让
服务器
使用
它作为额外的CPU核心。这个是可能的吗?我该怎么做?
浏览 0
提问于2016-05-01
得票数 -1
回答已采纳
1
回答
使用
SSH进行X11转发时,呈现在何处执行?
、
、
、
当ssh‘入到远程系统(例如具有大量计算能力和/或图形恶意程序的集群)时,X11转发(例如,
使用
ssh -X或-Y)在哪里完成图形呈现?
如何
运行图形密集型工作负载,使其能够利用集群的图形硬件?
浏览 5
提问于2014-07-04
得票数 13
回答已采纳
1
回答
屏幕撕裂Nvidia/Intel ubuntu 20.04
、
、
、
另外,我是否可以在两个处理器之间切换,以便
使用
Intel进行轻量级的
使用
,如浏览;Nvidia用于Blender、游戏和其他任何需要
GPU
的东西?没有安装其他操作系统)NVIDIA公司GP106M GeForce GTX 1060移动电话 nvidia 440驱动器正在
使用
中
浏览 0
提问于2020-06-30
得票数 0
2
回答
Kubernetes
GPU
吊舱/Kubeflow
我有两个
服务器
与4个特斯拉K40图形处理器。 我已经成功地创建了一个kubernetes集群,安装了kubeflow 1.0,它可以正常工作所需的一切。我可以成功地创建一个带有4个
GPU
的木星笔记本
服务器
,并在其上
使用
keras模型,一切都很好。我可以
使用
8
gpu
(4来自一台
服务器
,4来自另一台
服务器
)来创建jupyter笔记本
服务器
或运行任何gpupod,或者只有4对于一个gpupod是可以为我?当我尝试
使用
8
浏览 0
提问于2020-04-10
得票数 0
回答已采纳
1
回答
防止Xorg在更改tty时挂起
、
、
、
问:当X
服务器
不在active tty中时,是否可以保持刷新X? 我试着用-novtswitch启动Xorg,但没有成功。
浏览 0
提问于2019-05-16
得票数 1
2
回答
选择在jupyter笔记本中
使用
的特定
GPU
。
、
、
我正在对linux
服务器
上的.ipynb文件进行编码。 我
使用
的linux
服务器
上有多个
GPU
,但我应该只
使用
空闲的
GPU
,以免意外地中止其他人的程序。我已经知道对于普通的.py文件,我们可以在命令行中添加一些指令来选择一个通用的
GPU
(例如导出CUDA_VISIBLE_DEVICES=#),但是它对jupyter笔记本是否有效呢?如果没有,我
如何
指定要工作的
GPU
。
浏览 12
提问于2022-07-11
得票数 1
回答已采纳
1
回答
检查CUDA MPS
服务器
在应用程序运行时是否打开/关闭?
、
我的问题是,在应用程序运行时,是否可以以某种方式查询MPS
服务器
并检查它是否运行在
GPU
上?据我所知,通过
使用
nvidia-smi,可以检查CUDA MPS
服务器
是否运行在
GPU
上,但我不确定
如何
在应用程序运行时
使用
这个系统命令。在应用程序运行时,是否有其他可能的方法来检查MPS
服务器
是否运行在
GPU
上?
浏览 3
提问于2015-06-27
得票数 3
回答已采纳
1
回答
腾讯云
GPU
服务器
不能联外网吗?
浏览 1219
提问于2019-05-24
1
回答
DaVinci错误代码999,
gpu
未能执行图像处理错误代码999。
、
、
、
我最近安装了DaVinci解决18.1,并得到“
gpu
未能执行图像处理错误代码999”的错误,我一开始该程序。我根本不知道。需要解决办法。
浏览 7
提问于2022-11-14
得票数 1
回答已采纳
1
回答
如何
共享一个
GPU
深度学习
服务器
?
、
、
、
、
对于我们的开发团队,我们希望为他们的深入学习/培训任务构建一个中央
GPU
服务器
(
使用
一个或多个强大的
GPU
,而不是为每个团队成员提供自己的
GPU
的多个工作站)。我想这是一个常见的设置,但我不知道
如何
使这个
GPU
共享为多个团队成员同时工作。我们
使用
Tensorflow/Keras和Python脚本。我的问题是:让团队成员在中央
服务器
上训练模型的典型方法是什么?只要允许他们通过SSH访问并直接从命令行进行网络培训?或者
浏览 0
提问于2020-12-17
得票数 2
回答已采纳
2
回答
替代nvidia-设置GpuPowerMizerMode在Ubuntu?
、
、
、
我们有一个带有Nvidia
GPU
的Ubuntu20.04
服务器
,并希望将Power模式/ GpuPowerMizerMode更改为Prefer Maximum Performance。这样做的一个方法是但是,这将需要一个具有访问相关
GPU
的X会话;编辑/etc/X11/xorg.conf还有其他方法来读取和设置Ubuntu中的Nvidia
GPU
浏览 0
提问于2021-02-25
得票数 2
1
回答
从
GPU
到远程主机的GPUDirect RDMA传输
、
、
、
设想情况: 我有两台机器,一台客户机和一台
服务器
,与Infiniband连接。
服务器
机器有一个NVIDIA Fermi
GPU
,但是客户端机器没有
GPU
。我有一个运行在
GPU
机器上的应用程序,它
使用
GPU
进行一些计算。
GPU
上的结果数据从来不被
服务器
使用
,而是直接发送到客户端机器,无需任何处理。现在,我正在做一个cudaMemcpy,将数据从
GPU
获取到
服务器
的系统内存,然后通过套
浏览 6
提问于2012-08-14
得票数 10
回答已采纳
2
回答
为远程登录的用户启动虚拟X
服务器
、
、
我有一个
服务器
(CentOS6),它有一个ATI。为了让用户能够访问这个
GPU
来
使用
OpenCL进行计算,他们需要不幸地打开一个X会话(对ATI驱动程序的限制)。这些用户将向
服务器
发送ssh。他们
如何
能够在
GPU
上启动一个“虚拟”X会话,以便能够访问它进行计算?(ssh -X
服务器
和启动像xclock之类的应用程序都不会在
GPU
上启动Xsession .) 提前谢谢。
浏览 0
提问于2012-08-01
得票数 0
1
回答
避免
使用
带血浆的Xorg的nvidia卡
、
、
我有一个戴尔xps 159570笔记本电脑与英特尔和nvidia
GPU
运行ubuntu 18.04,并希望
使用
nvidia卡专门用于培训深层神经网络。我设法让X
服务器
在英特尔上运行在gdm3中,当我选择
使用
gnome (ubuntu )登录时,它工作得很好。运行nvidia-smi显示
GPU
上没有进程正在运行。然而,现在我想尝试
使用
等离子体的kde,在那里,xser
浏览 0
提问于2019-07-13
得票数 2
回答已采纳
3
回答
我
如何
让Keras在特定的
GPU
上训练一个模型?
、
、
、
在我的机构中有一个有2个
GPU
的共享
服务器
。假设有两个团队成员希望同时训练一个模型,那么他们
如何
让Keras在特定的
GPU
上训练他们的模型,以避免资源冲突?理想情况下,Keras应该知道哪个
GPU
目前正忙于训练一个模型,然后
使用
其他
GPU
来训练另一个模型。然而,情况似乎并非如此。默认情况下,Keras似乎只
使用
第一个
GPU
(因为第二个
GPU
的Volatile
GPU
-Util始终是0%)。
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
1
回答
在PowerEdge T550中,
GPU
的辅助电源来自哪个插座(S)?
、
、
、
服务器
:戴尔PowerEdge T 550塔
服务器
GPU
:NVIDIA A40当我在戴尔的网站上配置
服务器
时,有一个选项可以包括一个A40。我将其包括在内,以便在
服务器
与A40不兼容时,他们的系统配置检查器会出现错误。T 550‘S电源板上有2x8引脚插座,标有
GPU
_PWR1和
GPU
_PWR2。这些套
浏览 0
提问于2023-01-23
得票数 2
回答已采纳
2
回答
CUDA与web开发
显然,
GPU
的每个核心都可以处理一个请求,而不是一个主处理器(系统的CPU)处理所有请求。从表面上看,这似乎是可能的,也许
使用
GPU
+ Redis数据库中的模板在
GPU
GDDR5中?
浏览 4
提问于2010-10-21
得票数 1
回答已采纳
12
回答
如何
在CPU上运行Tensorflow
、
我已经在Ubuntu14.04上安装了
GPU
版本的tensorflow。我想在CPU上运行tensorflow。通常,我可以
使用
env CUDA_VISIBLE_DEVICES=0在
GPU
0上运行。 我
如何
在CPU之间进行选择呢?
浏览 12
提问于2016-06-06
得票数 187
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何使用JavaScript实现GPU加速神经网络
如何用本地的VSCode连接极链AI的GPU服务器
NVIDIA:深度学习GPU服务器搭建指南
GPU服务器有什么用?从民生到国防,GPU服务器正在大显身手!
超聚变将推出全液冷GPU服务器,支持NVIDIA A100液冷GPU
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券