腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在
pytorch
中
保存
具有
更新
权重
的
模型
、
、
、
、
我有一个
模型
,我想训练5个时期。然后,我想看看
模型
哪里错了,并相应地增加训练集。如何使用学习到
的
权重
保存
以下
模型
?project_path, 'model.pth')但我真的不认为object network包含
权重
浏览 7
提问于2019-07-15
得票数 0
回答已采纳
1
回答
是否可以停止机器学习训练,稍后再继续?
、
、
、
我现在要做
的
是GAN。事实上,我们不知道CNN和RNN对GAN做了什么,而且由于计算环境是个人
的
,我们正在开发一个付费版本
的
"Google Colab“。结果,机器学习需要一些时间,而且
在
中间被切断了,到目前为止,我被迫使用可以
在
24小时内训练
的
数据集和纪元进行学习,突然我想,“我们不能积累训练吗?”所以我
的
问题是,举个例子,如果我最多训练了100个时期,但只有50次就被切断了,那么我不能在下一次训练
中
从50开始吗?如果我们能做到这一点,难道
浏览 5
提问于2020-08-18
得票数 0
回答已采纳
1
回答
放火器和煤角
中
的
保存
模型
、
、
、
我用keras训练了
模型
,并在
pytorch
的
帮助下
保存
了下来。会不会在将来引起任何问题。据我所知,它们之间
的
唯一区别是Keras将其
模型
的
权重
保存
为双倍,而
PyTorch
将其
权重
保存
为浮点数。
浏览 1
提问于2020-07-25
得票数 0
回答已采纳
1
回答
如何将Keras h5格式转换为
PyTorch
pth格式?
、
、
我
在
Keras
中
训练了一个特征提取器,并将
权重
保存
为一个h5文件。现在,我希望将相同
的
权重
加载到
在
PyTorch
中
创建和初始化
的
相同
模型
中
,以便进行性能比较。有没有办法将h5文件转换为pth文件,以便将其加载到
PyTorch
模型
中
?
浏览 0
提问于2019-08-04
得票数 3
1
回答
我该如何在火炬中
保存
模型
重量?
、
head with a new one训练
模型
不使用# evaluate on the test dataset我怎么才能拯救
模型
浏览 0
提问于2021-05-18
得票数 2
3
回答
如何使用
pytorch
-lightning将
模型
权重
保存
到mlflow跟踪服务器?
我想使用
pytorch
-lightning将
模型
权重
保存
到mlflow跟踪。
pytorch
-lightning支持。但是,似乎不支持将
模型
权重
保存
为mlflow上
的
工件。一开始,我计划重写类来做这件事,但我发现这对我来说很困难,因为复杂
的
Mixin操作。 有谁知道实现它
的
简单方法吗?
浏览 61
提问于2019-12-03
得票数 4
3
回答
我试图理解神经网络训练
中
的
“时代”。下一个实验是否等效?
、
、
、
、
假设我有一个定义好
的
神经网络
的
训练样本(带有相应
的
训练标签)(神经网络
的
结构对于回答这个问题并不重要)。让我们把神经网络称为“
模型
”。为了不创建任何夫人,让我们说,我介绍了最初
的
权重
和偏差
的
‘
模型
’。我用训练样本和训练标签来训练40个时代
的
“
模型
”。经过训练,神经网络将对整个神经网络有一组特定
的
权重
和偏差,我们称之为WB_Final_experimen
浏览 13
提问于2020-03-20
得票数 3
回答已采纳
2
回答
tensorflow js如何从另一个
模型
加载
权重
、
、
我有两个模特m1和m2,
在
使用
PyTorch
的
python
中
,可以使用以下代码行来完成:但我在网上找不到关于这件事
的
任何信息。根据这些文档,我发现
的
唯一一件事是: 例如,通过本地存储
保存
m2,然后将其完全加载到m1
中
,但是,为了
更新
权重</
浏览 1
提问于2020-03-25
得票数 0
回答已采纳
1
回答
经过
PyTorch
训练
的
模型
可以
在
GPU和TPU之间传输吗?
、
、
在
使用图形处理器训练
PyTorch
模型
后,我可以使用
保存
的
权重
在TPU上继续训练
模型
吗?
浏览 6
提问于2021-09-25
得票数 0
2
回答
PyTorch
:从另一个
模型
加载
权重
而不
保存
、
假设我
在
PyTorch
中有两个
模型
,如何在不
保存
权重
的
情况下通过
模型
2
的
权重
加载
模型
1
的
权重
?如下所示:
在
TensorFlow
中
,我可以这样做:variables2
浏览 32
提问于2021-03-07
得票数 4
回答已采纳
1
回答
输入类型(torch.FloatTensor)和
权重
类型(torch.cuda.FloatTensor)应相同
、
、
、
、
*我将我
的
模型
和数据设置
在
同一个设备上,但总是会抛出这样
的
错误: RuntimeError:输入类型(torch.FloatTensor)和
权重
类型(torch.cuda.FloatTensor)应该相同<code>A2</code>关于如下声明
的
函数<code>D3</code> <code>A4</code>
浏览 52
提问于2020-06-10
得票数 0
1
回答
带喷炬
的
平均计算图
、
、
我写这封信是因为我要应付以下情况:
在
训练期间,我需要一个
在
pytorch
的
前向函数
中
的
for循环。下面是我
的
代码示例: [variables declaration...如果有太多
的
迭代,它占用了太多
的
内存。因此,我尝试了以下实现: [variables dec
浏览 1
提问于2022-06-28
得票数 0
1
回答
Keras多gpu批处理规范化
、
、
、
1)批处理规范化层是如何与多点_gpu_
模型
工作
的
?2)
保存
模型
时,
保存
了哪些批规范化参数?(因为
在
Keras中使用多个gpus时,必须按照建议
的
这里
保存
原始
模型
)?具体而言,该功能实现了单机多GPU数据并行.
浏览 0
提问于2019-03-22
得票数 3
1
回答
修剪
模型
后删除
Pytorch
中
的
weight_orig
、
、
在
Pytorch
中
修剪
模型
后,
保存
的
模型
包含修剪后
的
权重
和weight_orig。这会导致修剪后
的
模型
大小大于未修剪后
的
模型
。有没有一种方法可以删除weight_orig并减小修剪后
的
模型
大小?
浏览 9
提问于2020-11-07
得票数 0
2
回答
在
Google Colab中
保存
模型
状态和加载
、
、
但在google colab
中
每个时代需要8分钟才能完成。有人能帮我吗?如何在特定时期完成后
保存
我
的
模型
状态,并从我离开google Colab
的
地方重新开始训练?
浏览 36
提问于2020-09-14
得票数 0
3
回答
在
火炬闪电
中
无法加载自定义预先训练
的
重量
、
、
我想用我
的
小数据集重新训练一个自定义
模型
。我可以加载预训练
的
重量(.pth),并运行它在毕道尔。但是,我需要更多
的
功能,并将代码重构为Py火炬闪电,但我不知道如何将预先训练好
的
权重
加载到Py手电闪电
模型
中
。请参阅下面我
的
代码
的
详细信息: def __init__(self): super(BDRAR, self).keys = model.loa
浏览 19
提问于2022-01-11
得票数 0
回答已采纳
1
回答
Keras‘s BatchNormalization和
PyTorch
's BatchNorm2d
的
区别?
、
、
、
、
我已经
在
Keras和
PyTorch
中
实现了一个微小
的
CNN样本。当我打印两个网络
的
摘要时,可训练参数
的
总数是相同
的
,但是用于批归一化
的
参数总数和参数数不匹配。以下是CNN
在
Keras
中
的
实现: model = Conv2D(filters
中
相同
模型</e
浏览 2
提问于2020-02-05
得票数 11
回答已采纳
1
回答
如何计算两个网络
的
平均
权重
?
、
、
、
假设在
PyTorch
中
,我有model1和model2,它们
具有
相同
的
架构。他们
在
相同
的
数据上接受了进一步
的
培训,或者有一种
模型
是早期版本
的
,但它在技术上与这个问题无关。现在,我想将model
的
权重
设置为model1和model2
权重
的
平均值。我如何在
PyTorch
中
做到这一点?
浏览 0
提问于2018-02-01
得票数 12
回答已采纳
1
回答
使用state dict
Pytorch
保存
带
权重
的
模型
、
、
、
我有一个
PyTorch
模型
类和它
的
带有
权重
的
statedict。我想使用torch.save(model, PATH)将
模型
及其
权重
直接
保存
在.pt文件
中
,但这只是再次
保存
状态字典。如何
保存
包含loaded_weights
的
模型
?我目前正在做
的
事情lin_model.load_state
浏览 7
提问于2021-05-30
得票数 0
1
回答
`inplace=True`激活在
PyTorch
中
只对推理模式有意义,是真的吗?
、
、
根据
在
PyTorch
论坛上
的
讨论: inplace=True
的
目的是修改输入in ,而不为附加
的
张量分配内存。这允许更有效地使用内存,但禁止了向后传递
的
可能性,至少如果操作减少了信息量的话。反向传播算法需要
保存
中间激活以
更新
权重
。你能说,只有当
模型
已经被训练过,并且不想再修改它
的
时候,这个模式才应该在层
中
打开吗?
浏览 2
提问于2021-11-10
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对比PyTorch和TensorFlow的自动差异和动态子类化模型
网友:这是逼着我们用PyTorch啊
对比PyTorch和TensorFlow的自动差异和动态模型
从头开始了解PyTorch的简单实现
如何在Pytorch中精细化利用显存
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券