腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(89)
视频
沙龙
1
回答
RuntimeError:模块必须在设备cuda:1 (device_ids[0])上有它的参数和缓冲区,但是在设备: cpu上找到了其中的一个参数和缓冲区。
、
、
、
我正在用代码实现
nn.DataParallel
类,并将我的所有模型封装在这个类中。它给出了一个错误歧义错误。import network binarizer =
nn.DataParallel
(network.Binarizer()
浏览 5
提问于2020-12-16
得票数 1
1
回答
提高Pytorch神经网络数据集的batch_size
、
、
我目前使用batch_size =1进行神经网络训练,要在多个gpus上运行它,我需要将批处理大小增加到大于gpus的数量,因此我希望使用batch_size=16,尽管我设置数据的方式不确定如何更改raw_data = pd.read_csv("final.csv")test_data = raw_data[750:]# normalize featuresscaled
浏览 14
提问于2019-11-03
得票数 1
1
回答
如何在pytorch中进行并行处理
、
、
、
、
weight = None if not opt.no_cuda: train_logger, train_batch_logger) model =
nn.DataParallel
浏览 5
提问于2019-03-26
得票数 1
回答已采纳
1
回答
Net.to(设备)在
nn.DataParallel
中做什么?
、
.], [10, ...] on 3 GPUs据我所知,mode.to(device)将数据复制到
浏览 0
提问于2019-04-24
得票数 2
回答已采纳
2
回答
PyTorch的DataParallel只使用一个图形处理器
、
、
、
代码大致是这样的: >>> import torch.nn as nn >>> model =
nn.DataParallel
(model) >>> model.to
浏览 17
提问于2020-12-01
得票数 2
1
回答
带有自定义模型的Pytorch DataParallel
、
、
.], [10, ...] on 3 GPUs model.to(device) 它工作得很好,除了DataParallel不包含来自原始模型的函数
浏览 27
提问于2021-10-23
得票数 1
回答已采纳
1
回答
在尝试使用
nn.Dataparallel
并行化数据后,我遇到了麻烦
、
在没有数据并行化的情况下,我没有任何问题,但是在我只放了一行"model =
nn.DataParallel
(model)“之后,出现了错误消息"TypeError:'list‘object是不可调用的因为
nn.Dataparallel
已经被其他编码器使用了。对不起,英语不是我的母语。if use_cuda: model = model.cuda()criterion = criterion
浏览 2
提问于2019-09-09
得票数 0
1
回答
KeyError: state_dict中的意外键"module.encoder.embedding.weight“
在加载保存的模型时,我得到了以下错误。这是我用来加载保存的模型的函数。 """Load a previously saved model states.""" with open(fi
浏览 3
提问于2017-05-28
得票数 9
回答已采纳
1
回答
面对pytorch v-1.1中的错误:"RuntimeError:所有张量都必须在devices[0]上“
、
、
我正在为我的model使用
nn.DataParallel
(),但是遇到一个错误。我正在做类似这样的事情 self.model =
nn.DataParallel
(self.model) 如果设备是
浏览 38
提问于2019-11-29
得票数 0
回答已采纳
2
回答
PyTorch自定义转发函数不适用于DataParallel
、
、
、
device= 'cuda:0'model = model.to(device) 如何使此模型类与
nn.DataParallel
一起工作
浏览 5
提问于2021-07-12
得票数 2
1
回答
AttributeError:“函数”对象没有属性“cuda”
、
、
import torchmodel_names = sorted(name for name in models.__dict__ and callable(models.__dict__[name]))model = torch.nn.DataParallel(model,devi
浏览 4
提问于2020-01-10
得票数 2
回答已采纳
6
回答
如何在火炬中使用多个GPU?
、
我使用这个命令来使用GPU。但是,我想在jupyter中使用两个GPU,如下所示:
浏览 4
提问于2019-01-16
得票数 57
1
回答
有没有一种将torch.nn.DataParallel与CPU结合使用的方法?
、
、
模型是用torch.nn.DataParallel()训练的,所以当我加载预训练的模型并尝试使用它时,我必须使用
nn.DataParallel
(),我目前正在这样做:net =
nn.DataParallel
(net, device_ids=[0])net.to(device)device = torch.device('cpu
浏览 0
提问于2021-07-27
得票数 3
回答已采纳
1
回答
只分配第一批gpu (即使我在pytorch框架中使其他gpu可见)
、
、
、
在linux服务器中,我使用cuda在中使用多个cuda设备。(但其他程序工作良好,其他指定的gpus分配得很好。正因为如此,我认为这不是nvidia或系统问题。nvidia-smi很好地显示了所有的gpus,没有问题。以前,我在分配下面代码的gpus时没有问题(除非系统不工作)os.environ["CUDA_VISIBILE_DEVICES"] = str(args.gpu)
浏览 5
提问于2021-05-03
得票数 4
2
回答
毕道尔的并行方法和分布式方法是如何工作的?
、
、
、
但是有一个非常有趣的特性是PyTorch支持的,那就是
nn.DataParallel
和nn.DistributedDataParallel。它们是如何实际实现的?它们如何分离公共嵌入和同步数据?def forward(self, x): x = self.rnn(x) model =
nn.DataParallel
浏览 0
提问于2018-11-19
得票数 48
2
回答
在GPU上训练模型非常缓慢。
、
我正在使用A100-SXM4-40GB Gpu,但是训练非常慢。我尝试了两种模式,一种是cifar的简单分类,另一种是城市景观的Unet。我在其他GPU上尝试了我的代码,它工作得很好,但是我不知道为什么在这个高容量GPU上的训练非常慢。下面是GPU的其他一些属性。GPU 1: A100-SXM4-40GBGPU 3: A100-SXM4-40GB
浏览 1
提问于2021-05-01
得票数 0
回答已采纳
2
回答
为什么在测试时必须使用DataParallel?
、
num_gpus设置为1:model = NestedUNet(opt.num_channel, 2).to(device) model =
nn.DataParallel
浏览 1
提问于2020-05-17
得票数 4
回答已采纳
3
回答
RuntimeError:模块必须在设备cuda:1 (device_ids[0])上具有其参数和缓冲区,但在设备: cuda:2上找到了其中之一
、
torch.cuda.is_available(), torch.cuda.current_device(), torch.cuda.get_device_properties(1)model =
nn.DataParallel
浏览 1
提问于2019-12-09
得票数 13
回答已采纳
1
回答
如何在pytorch框架中使用多gpu进行推理
、
CUDA_DEVICE_ORDER']='PCI_BUS_ID'model =
nn.DataParallel
浏览 232
提问于2019-07-11
得票数 3
1
回答
Var.to(器件)的更换(
nn.DataParallel
() )在移相器中的应用
、
、
.], [10, ...] on 3 GPUs我的问题是什么取代了 X_batch, y_batch
浏览 3
提问于2022-07-28
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习为什么要选择 PyTorch
Github代码实践:Pytorch实现的语义分割器
Facebook 面向个性化推荐系统的深度学习推荐模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券