腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
基于
两个
不同
的
损失
函数
进行
更新
,
但在
每个
函数
之后
使用
不同
的
优化
器
学习
率
(
pytorch
)?
、
、
、
我有一个如下
的
设置,在这里我有一个外部
的
for循环迭代在epochs上,一个内部
的
for循环迭代在批处理上。 在内部for循环中,在批处理中,我
使用
交叉熵
损失
,并
使用
具有一定
学习
率
的
Adam
优化
器
。在内部for循环
之后
(在评估所有批处理
之后
),然后根据输出计算另一个
损失
函数
(一个自定义
损失
函数
浏览 63
提问于2020-05-14
得票数 0
2
回答
loss.backward()与模型
的
适当参数有何关系?
、
、
我是
PyTorch
的
新手,我很难理解loss是如何知道如何通过loss.backward()计算梯度
的
?当然,我知道参数需要有requires_grad=True,并且我知道它将x.grad设置为适当
的
梯度,以便
优化
器
稍后执行梯度
更新
。
优化
器
在实例化时链接到模型参数,但
损失
永远不会链接到模型。我一直在通过,但我认为没有人清楚地回答了这个问题,这个帖子
的
发起人似乎和我有同样
的
问题。
浏览 2
提问于2019-11-14
得票数 3
1
回答
将
优化
器
从Adam更改为Nesterov时性能较差
、
、
我在
Pytorch
上运行了一个
基于
Linknet架构
的
图像分割代码。
优化
器
初始设置为: self.optimizer = torch.optim.Adam(params=self.net.parameters(), lr=lr) 然后我将其更改为Nesterov以提高性能Nesterov
的
性能较差。当我
使用
Adam时,
损失
函数
可以收敛到0.19。但是当我
使用
Nesterov时,
损失
函数</e
浏览 45
提问于2021-08-30
得票数 0
1
回答
当你
的
神经网络变大时,你
的
学习
速度应该变小吗?
、
、
当你增加更多
的
层和更多
的
神经元时,你
的
学习
率
会下降,这是正确
的
吗? 所以,一般来说,网络越大,
学习
速度就越小?
浏览 0
提问于2021-04-28
得票数 1
1
回答
为什么
学习
速度会导致我
的
神经网络
的
权重猛增?
、
、
、
、
我正在
使用
tensorflow编写一些简单
的
神经网络
进行
一些研究,我在训练过程中遇到了许多关于“nan”权重
的
问题。我尝试了许多
不同
的
解决方案,如更改
优化
器
、更改
损失
、数据大小等,但都没有效果。最后,我注意到
学习
率
的
变化使我
的
体重发生了难以置信
的
变化。
使用
.001
的
学习
速率(我认为这是相当保
浏览 0
提问于2016-12-27
得票数 11
回答已采纳
1
回答
卷积神经网络(tensorflow)
损失
函数
的
周期性
、
、
、
、
我正在
使用
在Tensorflow中实现
的
卷积神经网络(cnn)
进行
图像分割。我有
两个
类,我
使用
交叉熵作为
损失
函数
和Adam
优化
器
。我正在用大约150张图片训练这个网络。在训练过程中,我看到了这种周期性
的
模式,训练
损失
一直下降到有一对高
的
值,然后迅速下降到以前
的
水平。 在验证
损失
中也可以观察到类似的模式,验证
损失
会周期性地
浏览 0
提问于2018-06-05
得票数 0
2
回答
不同
损失
函数
的
恢复训练
、
我想实施一个两步
学习
过程,其中: 即使我
使用
相同
的
优化
器
(如Adam ),我也会失去
优化
器
浏览 1
提问于2019-03-28
得票数 9
2
回答
理解
损失
函数
与
学习
算法
、
在Keras中,当指定平均绝对误差等
损失
时,它是否将
学习
算法(Adam或SGD)中
的
代价
函数
替换为平均绝对误差?我对ML还不熟悉,在这方面有点困惑。
浏览 0
提问于2020-06-17
得票数 0
回答已采纳
1
回答
我应该选择哪种
学习
率
?
、
、
、
、
我在2d图像上训练一个分割模型,Unet++,现在我正在寻找最优
的
学习
速度。模型
的
主干是Resnet34,我
使用
Adam
优化
器
,
损失
函数
是骰子丢失
函数
。此外,我还
使用
了一些回调
函数
: keras.callbacks.EarlyStopping(monitor='val_loss', patience=keras.callback
浏览 0
提问于2020-11-13
得票数 3
回答已采纳
1
回答
使用
PyTorch
根据我从张量计算出
的
数字调整张量矩阵值?
、
、
、
、
我已经初始化了
两个
张量(矩阵): sm=Var(torch.randn(20,1),requires_grad=True)freq_m=Var(torch.randn(12,20),requires_grad=True) 我从这
两个
矩阵中
的
数据创建了
两个
列表,并
使用
spearmanr来获取这
两个
列表之间
的
相关值。我如何创建列表并不重要,但目标是调整矩阵内部
的
值,以便计算出
的
相关值尽
浏览 20
提问于2019-08-24
得票数 1
回答已采纳
1
回答
损失
从第一个时代开始就在增加。
、
、
、
、
我正在为nlp训练我
的
暹罗网络。我在其中
使用
了lstm。和BCELoss。从第一个时代开始,我
的
损失
就越来越大。在272.4357是大小为1
的
torch.FloatTensor
之后
,前36个历元
损失
是错误
的
%2
之后
的
错误是大小为%%5
之后
的
错误是
浏览 11
提问于2018-01-31
得票数 0
回答已采纳
1
回答
为什么我
的
模型在100%
的
准确性和60%
的
准确性之间转换?
、
、
、
我试图用一维卷积神经网络从x,y,z加速度计和陀螺仪数据(6个特征)中将数据分类为行走或跑步(以及最终
的
其他活动),并对
不同
的
参数
进行
扫描。当我根据我
的
数据训练和评估模型时,我有时获得100%
的
精度,而有时则得到60%
的
精度(有一些参数
的
组合导致了~99%)。这些模型看起来不像从训练v验证
损失
曲线中过度拟合,但我觉得奇怪
的
是,我有时得到100.000%,然后其他人那么低。 为了了解是否总是这样,我对
每个</e
浏览 0
提问于2019-08-12
得票数 0
回答已采纳
1
回答
如何在
PyTorch
中为软角色评论者设置
损失
函数
、
、
、
我正在尝试在
PyTorch
中为软Q
学习
、参与者-批评者策略梯度算法实现一个自定义
损失
函数
。这来自于下面的论文。该算法
的
结构类似于深度Q
学习
,因为我们
使用
网络来估计Q值,并
使用
目标网络来稳定结果。然而,与DQN
不同
的
是,我们从Q(s)计算V(s)
的
方法是:这非常简单,可以用
PyTorch
进行
计算。我
的
主要问题是如何设置
损失</e
浏览 21
提问于2019-11-20
得票数 0
1
回答
学习
率
术语,什么是“降低”
学习
率
?
、
、
我正在调查一个
损失
平台和克服它
的
各种技术,这使我看到了这一页和声明: 一旦
学习
停滞,模型通常会从将
学习
率
降低2-10倍中获益。这个回调监视一个数量,如果没有看到一个“耐心”时代
的
改善,
学习
率
就会降低。如果我
的
学习
率
是0.001,那么我是将
学习
率
降低到0.001,还是降低到0.0001?一开始我会从0.001 > 0.0001开始考虑后者,但是当一个模型达到一
浏览 0
提问于2022-04-05
得票数 0
1
回答
tensorflow中
的
多任务
学习
、
、
我想在tensorflow中实现一个多任务
学习
框架。我目前正在实现这样
的
东西(伪代码)define_clas_cost() reg_optimizer.我有
两个
损失
函数
,我想
学习
权重,以便在相同
的
优化
器
中,在
不同
的
学习
速率下最小化
两个
损失
。我基本上希望梯度
优化
器
进
浏览 6
提问于2017-10-05
得票数 5
4
回答
随机梯度下降是分类
器
还是
优化
器
?
、
、
、
我是机器
学习
的
新手,我正在尝试为我
的
一个项目分析分类算法。我在sklearn库中偶然发现了SGDClassifier。但许多论文都将SGD作为一种
优化
技术。有人能解释一下SGDClassifier是如何实现
的
吗?
浏览 1
提问于2017-08-02
得票数 7
2
回答
基于
tf.GradientTape
的
预训练模型迁移
学习
不能收敛
、
、
、
我想用keras
的
预训练模型
进行
迁移
学习
from tensorflow import keras
使用
keras编译/拟合
函数
进行</
浏览 0
提问于2019-07-30
得票数 1
1
回答
一维CNN模型
的
精度很低。
、
、
、
、
我试图建立DNA突变分类
的
一维CNN模型,我建立了模型,它工作正常,但我得到
的
测试数据
的
准确性很低,我有数据集,如下图。 vocab_size = 100max_len = 90accuracy = accuracy*100 print("test accuracy = {:.2f}".fo
浏览 3
提问于2021-06-25
得票数 0
1
回答
如何在
Pytorch
中实现JSD
损失
上限?
、
、
我正在尝试用
pytorch
来“复制”,而且我还是个新手。我现在关心
的
是复制L_G (等式)。7第3页),下面是我当前
的
代码: super(JSDLoss,self).但是,我怀疑这不是创建自定义
损失
的
方法。任何形式
的
帮助都是非常感谢
的
!提前感谢:)
浏览 4
提问于2017-12-13
得票数 3
7
回答
我们应该对adam
优化
器
进行
学习
速率衰减吗?
、
我正在用Adam
优化
器
训练一个图像本地化网络,有人建议我
使用
指数衰减。我不想尝试这一点,因为Adam
优化
器
本身会降低
学习
速度。但那家伙坚持,他说他以前做过。所以我应该这么做,你
的
建议有什么理论依据吗?
浏览 8
提问于2016-09-15
得票数 125
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch 学习引发的思考
一文看懂各种神经网络优化算法
机器学习利器 PyTorch
FaceBook开源PyTorch3D:基于PyTorch的新3D计算机视觉库
Pytorch实现Logistic回归二分类
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券