腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(554)
视频
沙龙
1
回答
PyTorch
如
何在
只有
标量
损失
的
情况下
训练
神经网络
?
python
、
machine-learning
、
deep-learning
、
neural-network
假设我们有一个NN,我们想要
训练
它来预测输入中
的
3个值。我们有一组
训练
数据:目标呢?如果
pytorch
只计算一个
标量
作为
损失
函数,它如何进行
训练
?为什么它无法计算与每个输出神经元相关
的
损失
?例如,如果x_train
的
答案是(20,32,0.12),我们不想更新与答案(25,37,0.12)相同
的
权
浏览 15
提问于2021-02-28
得票数 0
回答已采纳
1
回答
当
训练
只有
输出wrt所有输入
的
导数时,
训练
神经网络
python
、
tensorflow
、
pytorch
有一个具有1000个输入
的
标量
函数F。我想
训练
一个模型来预测给定输入
的
F。然而,在
训练
数据集中,我们只知道F相对于每个输入
的
导数,而不知道F本身
的
值。如
何在
tensorflow或
pytorch
中构建具有此限制
的
神经网络
浏览 22
提问于2021-05-08
得票数 2
回答已采纳
2
回答
反向传播如何与反向自动分化相同(或不相同)?
algorithm
、
neural-network
、
backpropagation
、
calculus
、
automatic-differentiation
有这样
的
主张: 更新:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber和Ruthotto
的
“深度
神经网络
的
稳定体系结构”这一主题
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
2
回答
如何将权值应用于Tensorflow中
的
乙状结肠交叉熵
损失
函数?
python
、
tensorflow
训练
数据集包含两个类别A和B,相应地,我们在目标标签中表示为1和0。Out标签数据严重倾向于0类,这大约占数据
的
95%,而我们
的
类1仅占5%。在这种
情况下
,我们应该如何构建我们
的
损失
函数?我发现Tensorflow有一个可以用于权重
的
函数: weights作为
损失
系数。如果提供了
标量
,则
损失
将按给定值进行缩放。好吧,也许我误解了,应该是< 1.0
浏览 1
提问于2018-04-13
得票数 3
回答已采纳
1
回答
使用keras或tensorflow
训练
具有一个输出
的
cnn,每个数据集具有两个对应
的
损失
函数
python
、
tensorflow
、
keras
、
neural-network
、
conv-neural-network
我正在尝试
训练
一个具有两个数据集
的
cnn。我希望能够在每个批次中提供来自第一个数据集
的
一些数据和来自第二个数据集
的
一些数据,并且每个数据集具有不同
的
相应
损失
函数。我读过一些文章,如果
神经网络
有两个头,这是可能
的
,但我不确定如
何在
同一个
神经网络
上用一个输出做两个
损失
的
两个数据集。如果有一些现有的例子,我也会对使用
pytorch
持开放态度。
浏览 1
提问于2019-06-26
得票数 0
2
回答
在
pytorch
中
的
神经网络
中,将参数约束为-1、0或1
python
、
pytorch
、
loss-function
、
regularized
我希望将
神经网络
中中间层
的
参数限制为首选离散值:-1、0或1。其想法是添加一个自定义目标函数,如果参数采用任何其他值,该函数将增加
损失
。请注意,我希望约束特定层
的
参数,而不是所有层
的
参数。我如
何在
pytorch
中实现它?我想将这个自定义
损失
添加到
训练
循环中
的
总
损失
中,如下所示:loss = oth
浏览 58
提问于2021-05-31
得票数 3
1
回答
如何用
pytorch
评估和获得前馈
神经网络
的
精度
python
、
neural-network
、
deep-learning
、
pytorch
、
linear-regression
我开始使用
Pytorch
,目前正在做一个项目,我正在使用一个简单
的
前馈
神经网络
进行线性回归。问题是,我在
Pytorch
中找不到任何可以让我获得Keras或SKlearn中线性回归模型
的
准确性
的
东西。我在
Pytorch
的
文档和官方网站上搜索了一下,但什么也没找到。这个API似乎不存在于
Pytorch
中。我知道我可以在
训练
过程中观察
损失
,或者我可以简单地获得测试
损失
,根据它我可以知道<
浏览 16
提问于2019-10-06
得票数 1
1
回答
交叉验证后如何
训练
最终
的
神经网络
模型?
python
、
validation
、
machine-learning
、
neural-network
、
conv-neural-network
这是我一直面临
的
问题,但似乎在任何地方都找不到答案。我有700个样本
的
数据集。因此,我不得不使用交叉验证,而不是仅仅使用一个验证和一个测试集来获得错误
的
精确估计。 我想用
神经网络
来做这个。但是,在用
神经网络
进行CV并得到误差估计后,如何对整个数据集进行
神经网络
的
训练
?因为对于其他算法,
如
Logistic回归或支持向量机,不存在何时停止
训练
的
问题。但是对于NN来说,你要
训练
它直到你<
浏览 4
提问于2017-09-27
得票数 0
1
回答
如
何在
PyTorch
中忽略
损失
neural-network
、
pytorch
、
conv-neural-network
在
PyTorch
中
训练
神经网络
时,我希望能够查看模型输出,并决定某个特定
的
输出是导致
损失
还是被忽略(=零
损失
)。通常
的
训练
循环如下所示: data, labels = data.to(device), labels.to(device)或者,在调用loss.backward()之前,我可以在计算
损失
后修改它吗?(怎么做到
的
?标签是一个粗图像,其中每个
浏览 1
提问于2020-07-09
得票数 4
1
回答
训练
和验证模式
的
相同数据丢失不一致tensorflow
tensorflow
、
keras
、
deep-learning
、
pytorch
、
semantic-segmentation
令我惊讶
的
是,当使用完全相同
的
图像进行
训练
时,
损失
如
预期
的
那样接近于0,但当评估相同
的
图像时,
损失
要高得多,并且随着
训练
的
继续,
损失
会不断增加。为了让任何人都能重现这一点,我拿了官方
的
segmentation tutorial,并对它进行了一些修改,以从头开始
训练
一个convnet,
只有
一个图像。此外,我在
Pytorch
中使用相
浏览 37
提问于2020-11-05
得票数 2
回答已采纳
2
回答
多输出深度学习中
的
早期停止
deep-learning
、
classification
、
keras
、
multiclass-classification
当使用具有多个输出
的
神经网络
时,通常建议采取什么最佳策略来尽早停止
训练
过程?鉴于我目前正在监视净验证
损失
(来自n个不同输出神经元
的
验证
损失
加在一起),并且注意到我
的
训练
在一个或多个
损失
收敛之前就停止了,我想知道在这种
情况下
的
最佳实践是什么。如果一个人监视净验证
损失
,或者是否有任何方法实现早期停止,使m out n (m从1到n)输出
的
验证
损失
被监
浏览 0
提问于2016-09-13
得票数 11
1
回答
如何从有向图实现
PyTorch
NN
python-3.x
、
neural-network
、
pytorch
我是
Pytorch
的
新手,也是自学
的
新手,我想创建一个接受有向图
的
ANN。我还希望将每个连接
的
预定义权重和偏差传递给它,但现在愿意忽略它。我对这些条件
的
动机是,我正在尝试实现NEAT算法,该算法基本上是使用遗传算法来进化网络。我想
的
代码是: class Net(torch.nn.Module): super(Net, self).= 0: done =
浏览 12
提问于2020-03-10
得票数 1
1
回答
我
的
神经网络
模型
的
权重变化不大
的
原因是什么?
python
、
machine-learning
、
neural-network
、
torch
我正在
训练
一个
神经网络
模型,我
的
模型很好地符合
训练
数据。
训练
损失
稳定下降。一切都很好。 然而,当我输出模型
的
权重时,我发现由于随机初始化(我没有使用任何预先
训练
过
的
权重),模型没有发生太大
的
变化。默认
情况下
,在
PyTorch
中初始化所有权重)。
训练
数据
的
准确性从50%提高到90%,各维度
的
权重变化仅为1%左右。如何解释这一现象?
浏览 1
提问于2018-10-31
得票数 1
回答已采纳
1
回答
如何知道成本函数是否已变为最小值?
machine-learning
、
logistic-regression
、
gradient-descent
我试图在不使用ML相关库
的
情况下
实现逻辑回归,并且在优化成本函数时遇到了麻烦。这是否意味着我
的
代码中有一些错误? 或者,0.66可以是成本函数
的
最小值吗?我如何知道当前
的
成本函数值是最小
的
?
浏览 0
提问于2020-01-02
得票数 1
1
回答
加权均值和方差
的
更新
neural-network
、
pytorch
、
probability
、
bayesian
、
weight-initialization
我试着从论文
神经网络
中
的
权重不确定性
的
反推算法来理解贝叶斯,其思想是建立一个
神经网络
,其中每个权重都有它自己
的
概率分布。我明白这一理论,但我不明白如何更新学习部分
的
均值和方差。我在
Pytorch
中找到了一个代码,它简单地做到了:def __init__(self, in_features, out_features允许它
的
是参数函数吗?或者它发生在代码
的
某个地方?(从
浏览 0
提问于2021-04-14
得票数 1
1
回答
caffe中回归背后
的
理论
math
、
machine-learning
、
regression
、
caffe
有人知道“咖啡回归”背后
的
理论吗?我知道我们有一个
损失
函数,但这适用于什么呢? 我
的
意思是,对于具有
损失
层
的
Softmax,我们有一个Softmax函数,并应用交叉熵
损失
来确定我们
的
更新。我要找
的
是欧几里得
损失
的
“软最大函数”。有小费吗?我已经看过Caffe层
的
解释,但这里只是说,平方误差之和被用作
损失
函数。
浏览 1
提问于2017-03-16
得票数 0
回答已采纳
1
回答
当验证
损失
满足特定标准时提前停止
python
、
machine-learning
、
keras
、
deep-learning
我正在Keras中
训练
一个
神经网络
模型。我想要监控验证
损失
,并在达到一定条件时停止
训练
。为了清楚起见,我们假设0.5中
的
x和n是50。
只有
当epoch数大于50并且val_l
浏览 1
提问于2018-08-16
得票数 2
回答已采纳
1
回答
用于重放学习
的
train_on_batch自定义丢失fnc
tensorflow
、
keras
、
neural-network
、
loss-function
、
replay
学习者,
如
您所见,
损失
是两个mse
的
加权和,分别为新样本和重放样本计算。,这意味着每当我想
训练
一个批时,我想分离新
的
和重放数据点,并计算整个批
的
标量
损失
。 如
何在
Keras中实现此丢失函数并与train_on_batch一起使用?Keras
的
train_on_batch方法似乎分别用
损
浏览 7
提问于2021-01-04
得票数 0
1
回答
tensorflow图正则化(NSL)对三重半硬
损失
(TFA)
的
影响
python
、
tensorflow
、
keras
、
deep-learning
、
nsl
如
本文所述,我想用nsl.keras.GraphRegularization
训练
二元目标深度
神经网络
模型。我
的
模型在中间稠密层中有一个,不应该是“图正则化”。来自吉顿
的
nsl.keras.GraphRegularization : 图正则化是在逻辑层上进行
的
,
只有
在
训练
过程中才能进行。这意味着中间三重态半硬
损失
不会受到这种正则化
的
影响。
浏览 8
提问于2019-12-04
得票数 0
回答已采纳
3
回答
将logistic回归和连续回归与scikit-learn相结合
python
、
machine-learning
、
scikit-learn
、
regression
在我
的
数据集X中,我有两个连续变量a, b和两个布尔变量c, d,总共有4列。我有一个由两个连续变量A, B和一个布尔变量C组成
的
多维目标y。 我想
训练
一个关于X列
的
模型来预测y
的
列。然而,在X上尝试了LinearRegression后,它
的
性能并不是很好(我
的
变量变化了几个数量级,我必须应用适当
的
转换来获得对数,在这里我不会深入讨论太多细节)。我真正想做
的
是将连续变量上
的
LinearRegression和布尔变量上
浏览 18
提问于2019-12-06
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch 学习引发的思考
60分钟入门PyTorch,官方教程手把手教你训练第一个深度学习模型
255页的《利用PyTorch进行深度学习》
PyTorch经验指南:技巧与陷阱
PyTorch官方培训教程上线:从基本概念到实操,小白也能上手
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券