腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
GPU
如何使用的元流解释
amazon-web-services
、
gpu
、
aws-batch
、
netflix-metaflow
它看起来像@resources(
GPU
=2)负责
GPU
分配,但有一些讨论指出AWS EC2
实例
类型与
GPU
,如P或G
实例
,也是类型的AMI。然后,码头
实例
需要在码头容器()内的
GPU
驱动
程序
能够访问
GPU
。 我们是否需要使用在EC2
实例
(停靠主机)级别预配置
GPU
驱动
浏览 3
提问于2020-07-07
得票数 0
2
回答
如何在aws ec2
gpu
实例
上检查
gpu
的使用情况?
amazon-ec2
、
monitoring
、
cpu-usage
我正在AWS ec2上运行一个ubuntu
实例
。我不确定我的应用
程序
是否正在使用
gpu
加速。那么如何在aws
gpu
实例
上检查
gpu
的使用呢?
浏览 0
提问于2012-06-04
得票数 9
1
回答
使用slurm在可用的
GPU
上分发MPI线程
程序
gpu
、
mpi
、
slurm
我的
程序
由两部分组成,A和B,都是用C++编写的。B是从单独的DLL加载的,并且能够在CPU或
GPU
上运行,具体取决于它的链接方式。当启动主
程序
时,它创建A的一个
实例
,该
实例
又创建B的一个
实例
(然后在本地可用的
GPU
或第一个
GPU
上工作)。当使用mpirun (或通过slurm启动mpirun)启动
程序
时,为每个MPI rank创建A的一个版本,该版本又为其自身创建B的一个版本。当系统中只有一个
GPU
时,将使用此<e
浏览 3
提问于2019-08-06
得票数 0
1
回答
Theano无法使用
GPU
python
、
amazon-web-services
、
gpu
、
theano
、
theano-cuda
- t0))if numpy.any([isinstance(x.op, tensor.Elemwise) and print('Used the cpu') print('Used the
gpu
浏览 19
提问于2018-06-02
得票数 2
2
回答
如何在Google Cloud AI平台的Jupyter笔记本上使用
GPU
google-cloud-platform
、
gpu
我在Google Cloud AI平台上使用的是支持
GPU
的Jupyter笔记本电脑。有谁知道我怎么让它用
GPU
代替吗?在此之前,我一直在使用Google Colab notebook,您可以在笔记本顶部的菜单中简单地更改运行时以使用
GPU
。但在Jupyter笔记本中看起来并没有这样的选项。感谢任何关于如何让它使用
GPU
的建议! 谢谢。
浏览 1
提问于2021-01-28
得票数 0
1
回答
UUID设置CUDA装置
cuda
有没有办法通过UUID设置
程序
CUDA设备?由于我使用多
实例
GPU
(MIG)逻辑拆分
GPU
,不同的虚拟
GPU
有不同的UUID。
浏览 3
提问于2021-08-17
得票数 1
回答已采纳
3
回答
将
GPU
添加到现有VM
实例
Google Compute Engine
google-compute-engine
我已经创建了一个使用谷歌计算引擎的深度学习(cs231n)只有CPU的
实例
。我已经升级账号,
GPU
配额现在是1。但是,按照文档中的说明将
GPU
添加到现有
实例
不起作用。文档建议编辑VM,但是,在停止VM之后,没有用于编辑VM
实例
的按钮/选项。 我已经在StackOverflow上看到了推荐与文档相同的答案,感觉文档与界面不一致。我想知道是否有人能够编辑VM并将
GPU
添加到现有VM
实例
中?
浏览 3
提问于2018-12-29
得票数 2
1
回答
创建多个Caffe - C++
实例
c++
、
machine-learning
、
computer-vision
、
gpu
、
caffe
我想在单个C++
程序
中创建多个Caffe
实例
,以便可以利用多个
GPU
,但Caffe似乎是一个单例
实例
。我可以运行单独的使用Caffe的
程序
,并为每个
程序
分配一个唯一的
GPU
。多个
程序
的方法不像我从一个
程序
中运行它们那样容易管理。
浏览 0
提问于2017-06-13
得票数 4
1
回答
在Google Colab中使用多个
GPU
的Tensorflow中的分布式训练
tensorflow
、
gpu
、
distributed-computing
、
google-colaboratory
据我所知,输出表明MirroredStrategy只创建了模型的一个副本,因此,只有一个
GPU
将用于训练模型。我的问题是: Google Colab是否仅限于在单个
GPU
上进行培训?
浏览 8
提问于2019-09-19
得票数 5
1
回答
如何基于google云中的某个事件/触发器自动启动/停止
实例
(vm)?
gcloud
我们在google云中使用一个
GPU
实例
来运行与机器学习相关的服务。谷歌云为他们的
GPU
实例
制定了这些计划外的维护计划。在
实例
关闭以进行维护之前,google将在
实例
被拒绝前1小时向该
实例
发送通知。假设
GPU
实例
名为"vm1“,我们希望在"vm1”接收到以后将通过维护进行维护的通知后,将备份
GPU
实例
“VM1-复制”旋转起来,这样对客户端的服务就会受到此维护的影响。谷歌云中是否有
浏览 0
提问于2020-08-18
得票数 0
1
回答
什么是用于云中机器学习推理的自动缩放
GPU
实例
的最佳度量?
amazon-web-services
、
autoscaling
、
gpu
我们在AWS中有一个API,它有一个
GPU
实例
来进行推理。我们有一个具有最小和最大
实例
数的自动缩放器设置,但不确定应该使用哪个度量(
GPU
/CPU使用、RAM使用、平均延迟等)或指标组合来确定何时需要启动新
实例
以跟上传入请求。在我们的例子中,推理是非常密集的
GPU
。
浏览 0
提问于2021-06-06
得票数 3
2
回答
如何使用两个带一个存储的aws ec2
实例
(1个
gpu
和1个cpu
实例
)(运行代码、存储/共享文件)&降低成本
amazon-web-services
、
amazon-ec2
、
amazon-efs
、
deep-learning-ami
我的团队正在使用
gpu
实例
来运行机器学习,基于tensorflow,yolo,计算机视觉应用
程序
,并使用它来训练机器学习模型。它每小时7美元,有8个
gpu
,试图降低它的成本。但
gpu
的使用可能会在这段时间内到达,但也可能不会。因此,我想知道是否有一种方法来编辑代码,并在
gpu
不需要通过低成本cpu
实例
执行所有cpu密集型操作。并且只在需要时打开
gpu
实例
,使用它,然后在完成工作时停止它。所以我不知道从efs文件系统运行机器学习应用<e
浏览 2
提问于2018-12-26
得票数 1
回答已采纳
1
回答
如何在AWS Sagemaker ml.t3.2xlarge
实例
中使用
GPU
?
python
、
amazon-web-services
、
pytorch
、
amazon-sagemaker
我在AWS Sagemaker上有一个笔记本ml.t3.2xlarge
实例
,我想使用pytorch训练一个神经网络。以下命令返回"False":是否需要执行某些操作才能激活
GPU
?!nvidia-smi 我假设所有的notebook
实例
类型都有
GPU
,
浏览 4
提问于2021-11-24
得票数 1
1
回答
Google Cloud中不常见的ffmpeg
google-cloud-platform
、
ffmpeg
、
containers
、
docker-container
在Google Cloud平台上运行ffmpeg的Go
程序
应该使用哪项服务?我想使用一个带有
GPU
的计算
实例
来获得快速的ffmpeg处理。但是,由于调用频率不高,我不想一直运行昂贵的
GPU
实例
。Cloud Run似乎不支持
GPU
。
浏览 13
提问于2020-02-16
得票数 0
回答已采纳
3
回答
停止并开始深入学习google云VM
实例
使tensorflow停止对
GPU
的识别
tensorflow
、
google-cloud-platform
、
nvidia
、
google-dl-platform
我正在使用谷歌云提供的预先构建的深入学习VM
实例
,附带了一个Nvidia tesla K80
GPU
。我选择自动安装Tensorflow 2.5和CUDA 11.0。当我启动
实例
时,一切都很好--我可以运行:tf.config.list_physical_devices() 我的函数返回CPU、加速CPU和
GPU
。但是,如果我注销,停止
实例
,然后重新启动
实例
,运行相同的代码只会看到CPU和tf.test.is_
gpu
_a
浏览 12
提问于2021-06-24
得票数 9
回答已采纳
1
回答
我怎么知道哪个
GPU
足够解决一个问题?
tensorflow
、
gpu
我在使用
GPU
构建真实的应用
程序
方面没有多少经验,也不确定我是应该使用云
实例
还是购买低端的
GPU
(在200-500美元的范围内)。我预计我的应用
程序
会有很小的流量,所以即使是较小的
实例
对于我所要完成的任务也是非常昂贵的。 问题:,对于我来说,判断
GPU
是否足够快,而不首先购买它,最好的方法是什么?所有的云
GPU
(Amazon,Google)都使用超出我预算的硬件,所以在这些
实例
上运行我的代码不会给我一个很好的比较。
浏览 4
提问于2019-12-31
得票数 1
回答已采纳
1
回答
如何在AWS EC2
实例
上增加视频内存?
windows
、
amazon-web-services
、
jenkins
、
amazon-ec2
、
windows-server
我需要将这个
实例
的专用视频内存增加到8MB。默认情况下,Windows EC2
实例
的视频内存为0 MB。请给我一个同样的方法。谢谢。
浏览 9
提问于2016-12-23
得票数 0
1
回答
使用Tensorflow 2.0 - AMI设置AWS EC2
实例
,而不是自己构建它?
python
、
amazon-web-services
、
tensorflow
、
amazon-ec2
我需要使用Tensorflow 2.0设置一个AWS EC2
GPU
实例
。因此,我想知道在AWS
实例
上获得Tensorflow-
GPU
2.0的最佳方法是什么。我可以创建一个EC2
GPU
实例
,安装Nvidia驱动
程序
,然后使用nvidia-docker和Tensorflow 2.0.安装一个接口
实例
,或者使用Tensorflow 1.14安装一个AMI映像,
浏览 3
提问于2019-11-08
得票数 5
回答已采纳
2
回答
对象检测Django Rest部署在Google平台或Google引擎上
django
、
google-app-engine
、
google-cloud-platform
、
computer-vision
、
object-detection
我需要基于
GPU
的云
实例
,在那里我可以部署这个应用
程序
进行快速处理,以实现实时结果。我找了很多东西,但没有找到这样的资源。我相信(
实例
)可以连接到live,但我不知道具体如何连接。 谢谢
浏览 1
提问于2019-12-15
得票数 0
回答已采纳
2
回答
如何使用virtualenv安装软件包,但仍然使用系统tensorflow安装
tensorflow
、
virtualenv
、
google-dl-platform
如果我可以在任何地方使用这些脚本,包括在Google深度学习平台‘m上,那就太好了,但是当我尝试在of中安装tensorflow时,它不再使用
GPU
,所以我假设它不再使用tensorflow的系统安装。我也尝试了--system-site-packages标志,它说tensorflow已经安装了,但是后来它不再使用
GPU
了。
浏览 1
提问于2018-08-31
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
加工中心宏程序编程实例
Python语言程序设计:温度转换程序实例
openKylin 社区 GPU SIG 将推动国产 GPU 驱动程序技术研究
GO程序多核并行化运行实例
Python语言程序设计:8.5 Turtle实例
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券