腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
云硬盘能不能独立于云
服务器
?
、
、
、
学生需要
GPU
来训练神经网络。我可不可以租一块云硬盘,在云硬盘里存好系统、环境、训练用到的图片等数据,然后按需租
GPU
云
服务器
?比如先租一年的云硬盘,然后这几天需要了就租块
GPU
跑,跑完就不租了;过一周需要的时候再租
GPU
跑。这样能省下装环境、传训练数据的麻烦吗
浏览 188
提问于2022-10-04
1
回答
磁盘IO导致Xen/CentOS客户端负载过高
、
、
、
背景
服务器
硬件是双xeon,3gb内存,170 3gb 320 10k rpm,并且在通过网络复制文件时不会有任何问题。通过网络复制文件会在第一次运行时导致负载>4,随后的复制会导致
服务器
几乎完全停止,需要时间来冷却,它永远不会停止,只要给它10-15分钟的时间重新运行即可。但是对于一个
服务器
来说,这样的行为是不可行的。 例如,网络流量本身不会造成任何麻烦
浏览 0
提问于2011-01-17
得票数 2
回答已采纳
1
回答
Unix
服务器
迁移
我使用unix
服务器
11.31。现在,我想将我的二进制文件移到Unix
11.11
。我很困惑,因为更新版本中有一些信号更改和配置更改,所以这些二进制文件会在
11.11
中工作吗?
浏览 0
提问于2012-05-08
得票数 0
回答已采纳
5
回答
几核几G的机型可以跑起来tensorflow?
、
请描述您的问题 [附加信息]
浏览 517
提问于2018-05-18
1
回答
使用TensorFlow 2.0.0: Error: device :0在设置XLA_
GPU
_JIT设备编号0时不受XLA服务支持
、
、
、
我试图在TeslaV100-SXM2
GPU
上运行一个CuDNNLSTM层,但是由于TensorFlow-
GPU
2.0.0安装了错误(不能降级,因为是共享
服务器
)。Tf2.0.0不
推荐
ConfigProto选项,因此以前的线程(如 )没有帮助。"] = "PCI_BUS_ID" tf.config.
gpu
浏览 1
提问于2019-11-06
得票数 1
1
回答
在tensorflow中使用分布式多
GPU
推理的最佳方式是什么?
、
、
、
、
我是Tensorflow的新手,我正在致力于将测试图像分发到多个
GPU
。我读过很多Stack overflow answers和Github示例,我认为可能有两种方法。1)使用tf.FIFOQueue()来馈送每个
GPU
镜像,但是很多答案都不
推荐
使用队列(由于新的tf.data接口)。而且它有一些问题() 2)使用tf.data接口。我不确定这个API是否支持
GPU
。在这个问题()中,使用
GPU
的输入管道似乎还不能支持tf.data馈送。分布式Tensorflow不在我的考虑范围内(因为我们的
服务
浏览 1
提问于2018-02-07
得票数 0
1
回答
小程序商城需要购买哪些云服务?
、
、
、
、
云服务小白,现在有个需求,准备做个小程序商城预估双11、618 日UV在50万,需要购买哪些云服务呢?CFS,redis,CDN。。。。那些必须呢?大概的架构是什么? 还有月费用多少?
浏览 379
提问于2021-11-17
1
回答
如何在selectInput中为选择赋值
、
verbatimTextOutput("result"))然后,对于上述各年龄组,我有两个价值观(每个性别一个),如下所示:age2 <- c(
11.11
,0.75)age4 <- c(1.35, 0.09) server <- function(input, output) { age2 <- c(
11.11</e
浏览 0
提问于2018-05-08
得票数 0
回答已采纳
1
回答
您可以从英特尔
gpu
读取哪些传感器数据?
、
、
、
在带有
推荐
驱动程序的nvidia
gpu
上,您可以看到p传感器中的折叠值:
gpu
utilization
gpu
video decoderutilization 但我想知道什么值可以从英特尔
gpu
读取。
浏览 0
提问于2016-03-19
得票数 0
回答已采纳
1
回答
在线课堂电子白板录制
推荐
用什么
GPU
云
服务器
?
、
、
、
我正在做在线课堂电子白板软件,每个课堂有最多100个用户,用户在终端可以画线,输入文本,画多边形等,这些操作作为动作矢量以json数据传输到录制
服务器
,然后在录制
服务器
硬件加速合成渲染(1080P, fps15),再硬件编码推流,希望每台
服务器
支持至少50个课堂同时录制,这种应用
推荐
用什么配置的
gpu
服务器
?
浏览 208
提问于2020-12-17
1
回答
Gitlab -获取项目的环境信息
、
、
我正在尝试获取给定项目id和环境id的环境信息。我在跟踪。现在,我可以通过以下调用通过项目id获取所有环境:http://my_gitlab_url/gitlab/api/v4/projects/27/environments。我得到了正确的结果: { "name": "my_first_env", "external_url": null,
浏览 1
提问于2019-08-06
得票数 0
2
回答
推荐
用于Tensorflow的
GPU
、
我理解Tensorflow需要(对于
GPU
计算)一个具有Nvidia计算能力的
GPU
>= 3.0。有许多这样的
GPU
可供选择。面向游戏的
GPU
,例如GeForce模型,要比面向计算的
GPU
(如Tesla )便宜得多。在选择与Tensorflow一起使用的
GPU
时,应该寻找哪些属性?
浏览 5
提问于2016-03-31
得票数 6
回答已采纳
1
回答
tensorflow错误CUDA驱动程序版本不足以满足CUDA运行时版本
、
、
NUMA node, so returning NUMA node zeroname: Tesla K80 major: 3 minor: 7 memoryClockRate(GHz): 0.8755totalMemory: 11.17Gi
浏览 0
提问于2018-08-14
得票数 2
2
回答
编写驱动程序来愚弄Linux系统,使其使用
GPU
、
、
、
我热衷于为基于Linux的系统编写一个“模拟
GPU
驱动程序”。我的意思是,我只是想编写一个驱动程序(显然是在X
服务器
后面),用一些调试消息来响应X的API调用。换句话说,我想愚弄Linux,让它拥有一个实际的
GPU
。所以我可以在基于控制台的系统中做一个GUI加速包的测试床。现在,如果我在基于Linux控制台的系统中执行GUI加速包,它就会因为缺少真正的
GPU
(或者更好的
GPU
驱动程序)而死亡。 有可能吗?(编写一个
GPU
驱动程序来愚弄Linux,让它知道是否有一个实
浏览 9
提问于2012-07-26
得票数 1
回答已采纳
1
回答
编写驱动程序来愚弄*nix系统,使其使用
GPU
、
、
、
我热衷于为基于*nix的系统编写一个“模拟
GPU
驱动程序”。我的意思是,我只是想编写一个驱动程序(显然是在X
服务器
后面),用一些调试消息来响应X的API调用。换句话说,我想愚弄*nix系统,让它拥有一个实际的
GPU
。所以我可以在基于控制台的系统中做一个GUI加速包的测试床。现在,如果我在基于*nix控制台的系统中执行GUI加速包,它就会因为缺少真正的
GPU
(或者更好的
GPU
驱动程序)而死亡。有可能吗?(编写一个
GPU
驱动程序来愚弄*nix关于拥有一个实际的
GP
浏览 0
提问于2012-07-26
得票数 5
回答已采纳
1
回答
让LightGBM/ LGBM与
GPU
一起在Google上运行
、
、
、
,因此我执行了页面上
推荐
的代码或堆栈溢出
推荐
的其他代码,如下所示,!python3 setup.py install --
gpu
!pip install cmake我怎么才能修好它?
浏览 5
提问于2019-11-05
得票数 2
回答已采纳
2
回答
hp-unix上的根分区大小
、
我在HP-9000系列
服务器
上安装了HP-Unix
11.11
。我想知道如果根分区满了,
服务器
会发生什么情况?这会影响RAM还是
服务器
崩溃?此外,在
服务器
上运行的任何应用程序也会受到影响吗?
浏览 0
提问于2011-12-10
得票数 -1
2
回答
在多核上运行速度较快,但在
GPU
上相对较慢的内核
、
、
、
有没有人能
推荐
一系列算法,在这些算法中,多核在性能上优于
GPU
?我知道混合方法仍然会更快,但我真正想要的是了解
GPU
仍然落后于多核的领域。
浏览 1
提问于2011-12-16
得票数 1
回答已采纳
2
回答
我能安全地使用一个1U
服务器
和一个主动冷却的Nvidia GTX 680显卡吗?
、
、
我准备为我们的需要配置一些新的
GPU
节点,我想知道是否有人在1U
服务器
中使用简单的视频卡,比如Nvidia GTX 680 (用风扇进行主动冷却)?有没有人在1U
服务器
上尝试过类似的配置,并
推荐
使用激活冷却视频卡? 谢谢!
浏览 0
提问于2013-01-23
得票数 1
2
回答
如何在
GPU
之间分配操作系统
、
、
当使用缩放层basic_
gpu
(使用batch_size=1)时,我会得到以下错误: 然而,我记得我读到
GPU
之间的通信是缓慢的,并且会在训练中造成瓶颈。这是真的吗?如果是这样的话,是否有一种在
GPU
之间传播操作以防止此问题的
推荐
方法?
浏览 9
提问于2017-12-15
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
2023年深度学习GPU服务器配置推荐参考(3)
最快最全深度学习训练/GPU服务器硬件配置推荐2019
NVIDIA:深度学习GPU服务器搭建指南
GPU服务器有什么用?从民生到国防,GPU服务器正在大显身手!
超聚变将推出全液冷GPU服务器,支持NVIDIA A100液冷GPU
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券