腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
使用
PyTorch
的
交叉
熵
损失
函数
是否
需要
One-Hot
编码
?
、
、
、
、
在
PyTorch
中,我想
使用
torch.nn.CrossEntropyLoss
函数
。我
是否
必须格式化目标以便它们是一次性
编码
的
,或者我可以简单地
使用
数据集附带
的
它们
的
类标签?
浏览 839
提问于2020-06-19
得票数 10
回答已采纳
3
回答
如何利用火炬中
的
交叉
熵
损失
进行二值预测?
在火炬文档中,
交叉
熵
损失
是这样说
的
:这
是否
意味着对于二进制(0,1)预测,输入必须转换为(N,2)张量,其中第二维等于(1-p)?因此,例如,如果我预测一个类
的
目标1 (true)为0.75,
是否
需要
将两个值(0.75;0.25)叠加在一起作为输入?
浏览 0
提问于2018-08-18
得票数 3
1
回答
交叉
熵
损失
Pytorch
、
、
、
、
我有一个关于我
的
pytorch
网络中
交叉
熵
损失
的
最佳实现
的
问题。我正在构建一个网络,用于预测Volume-Pictures
的
3D分割。我有一个背景类或一个前景类,但它应该也有可能预测两个或更多不同
的
前景类。 训练时输入到我
的
网络中
的
形状是batch_size,input_channels,width,height,depth。输入通道等于1,因为我只有灰度图像,深度取决于组成3D体积
的</e
浏览 2
提问于2021-06-08
得票数 0
1
回答
GRU
损失
降至0.9,但不会进一步下降,
PyTorch
、
、
、
、
我用来进行GRU实验
的
代码。print(loss,acc) opt.step() k+=1 grad_fn=<SelectBackward>)
损失
为对于这些简单
的
输入数据,GRU
损失
是如此之大。原因何在?这段代码中
浏览 40
提问于2020-10-15
得票数 2
回答已采纳
1
回答
Pytorch
fasterrcnn resnet50 fpn
损失
函数
、
、
、
、
我
使用
的
是本教程中预先训练好
的
模型。https://
pytorch
.org/tutorials/intermediate/torchvision_tutorial.html#defining-your-model 该模型是
pytorch
的
更快
的
有人知道分类
损失
、
损失
和客观性
损失
函数
是什么吗(即
交叉
熵
或?)。提前谢谢
浏览 56
提问于2021-07-30
得票数 0
1
回答
为什么神经网络不能学习?
、
、
、
我正在用一个简单
的
数据集训练一个神经网络。我尝试了不同
的
参数组合,优化器,学习率...但是,即使在20个时代之后,网络仍然没有学到任何东西。 我想知道在下面的代码中问题出在哪里?score_train[1])print('Test accuracy:', score_test[1]) 该代码生成以下类型
的
输出
浏览 10
提问于2020-11-02
得票数 2
回答已采纳
2
回答
火炬中
的
软
交叉
熵
、
、
、
我有一个小问题,实现一个软
交叉
熵
损失
在火把。 对于我
的
模型,我
需要
实现一个加权
的
软
交叉
熵
损失
,这意味着目标值也是概率向量,而不是热向量。我尝试
使用
在几个论坛上
的
建议,但它不期望一个权重向量,所以我不能
使用
它。一般来说,我有点搞不懂如何用
pytorch
创建一个自定义
损失
函数
,以及自动梯度是如何遵循自定义
损失
<em
浏览 2
提问于2021-08-24
得票数 0
1
回答
使用
一个热
编码
和softmax
的
Pytorch
(范畴)
交叉
熵
损失
、
、
、
我在寻找一个传递
熵
损失
函数
,就像Tensorflow中
的
CategoricalCrossEntropyLoss。targets = [0, 0, 1]我要计算软件最大值上
的
(范畴)
交叉
熵
,而不是,而不是,把预测
的
最大值作为标签,然后计算
交叉
浏览 3
提问于2020-11-29
得票数 1
1
回答
当预测已经有可能时,毕火炬进行
交叉
熵
损失
。
、
、
、
、
因此,通常可以
使用
PyTorch
中
的
交叉
熵
损失
函数
来应用范畴
交叉
熵
,或者将logsoftmax与负日志相似
函数
结合起来,例如:loss = nn.NLLLoss如果输出处
的
数据已经处于具有概率
的
状态,而变量pred已经具有概率,那么该怎么办?其中
的
数据如下所示: pred = torch.tensor([[.2
浏览 0
提问于2019-07-18
得票数 3
回答已采纳
2
回答
交叉
熵
损失
在
pytorch
中是如何工作
的
?
、
、
、
我正在试验一些
pytorch
代码。对于
交叉
熵
损失
,我发现了一些有趣
的
结果,我
使用
了
pytorch
的
二进制
交叉
熵
损失
和
交叉
熵
损失
。) ce_loss(X,torch.argmax(X,dim=1)) # tensor(0.3133) 我预计相同输入和输出
的
浏览 38
提问于2020-10-06
得票数 1
1
回答
输出标签
的
一种热
编码
、
、
虽然我知道
需要
对输入数据中
的
功能进行热
编码
,但输出标签
的
热
编码
实际上有什么帮助呢?张量流MNIST教程鼓励对输出标签进行一种热
编码
。然而,CS231n(斯坦福大学)
的
第一个任务并没有建议
使用
一种热
编码
。选择/不选择一个热
编码
输出标签
的
理由是什么?编辑:不确定下投票
的
原因,但为了详细说明,我遗漏了softmax
函数
和
交叉
熵</em
浏览 1
提问于2018-07-17
得票数 3
1
回答
在深度强化学习中,我是计算每个迷你批次
的
一个
损失
,还是计算每个迷你批次
的
一个
损失
?
、
、
、
、
神经网络和
Pytorch
的
新手。 我在每个迷你批次中有300个回放记忆。我见过人们计算300个回放记忆
的
损失
,但这对我来说并不是真的有意义。300个回放记忆来自非常不同
的
游戏状态,为什么将预测和目标之间
的
300个差异合并到一个值中是有意义
的
?当模型反向传播时,梯度
是否
被分成300个分支,每个分支对应于迷你批次中
的
一个条目?例如,仍然
使用
小型批处理,每个批处理中有300个重放内存。我
的
策略网络输出10
浏览 8
提问于2020-05-18
得票数 1
1
回答
PyTorch
中
的
标签平滑-
使用
BCE丢失->来处理数据本身
我在
PyTorch
中做一个分类任务(二进制),所以对于标签0和1。不,我想引入标签平滑作为另一种正则化技术。因为我
使用
冰
损失
,所以没有像
交叉
熵
损失
那样
使用
标号平滑
的
函数
(对于人大于0,1)。现在,我正在考虑不是在
损失
中,而是在数据本身中实现它。在y_true进入亏损之前,将其替换为0->0.1和1->0.9
是否
正确?
浏览 1
提问于2022-07-28
得票数 0
回答已采纳
3
回答
当目标不是单热时,如何正确计算火炬中两个张量之间
的
交叉
熵
?
、
、
、
、
我对
Pytorch
中
交叉
熵
的
计算感到困惑。如果我想计算两个张量和目标张量之间
的
交叉
熵
不是一个热标签,我应该
使用
哪一个
损失
?计算两个概率分布之间
的
交叉
熵
,而不是预测结果和一个确定
的
单热标号是很常见
的
。基本
损失
函数
CrossEntropyLoss强制目标作为索引整数,在这种情况下它是不合格
的
。BC
浏览 11
提问于2021-08-01
得票数 2
回答已采纳
1
回答
计算NLP问题中
损失
的
稀疏
交叉
熵
损失
PyTorch
、
、
我
的
输入张量看起来是:// 8 -> batch size我
的
输出张量看起来如下我想计算这个任务
的
稀疏
交叉
熵
损失
,但是我不能,因为
PyTorch
只计算单个元素
的
损失
。我怎么
编码
它才能工作呢?谢谢你
的
帮助
浏览 2
提问于2020-09-03
得票数 1
1
回答
如何用
Pytorch
计算语言模型
的
困惑
、
、
我是微调GPT-2模型
的
语言生成任务
使用
拥抱面对变形金刚库-毕火炬,我
需要
计算一个评估分数(困惑)
的
微调模型。但我不知道如何利用
损失
来做到这一点。我想知道如何计算模型
的
困惑与sum_loss或平均
损失
或任何其他建议也是欢迎
的
。任何帮助都是徒劳无功。loss.backward()给出
的
是我如何计算每一批数据
的
损失
浏览 0
提问于2020-05-24
得票数 3
回答已采纳
1
回答
二元
交叉
熵
损失
、
、
当我们有一个二进制分类问题时,我们在输出layer+中
使用
一个sigmoid激活
函数
--二进制
交叉
熵
损失
。我们还
需要
一个热点
编码
的
目标variable.This S,一个二进制分类问题,意味着我们可以有一些样本与y_pred=0。正如我们所知道
的
,二元
交叉
熵
损失
的
数量是log(y_pred),这意味着对于属于0类
的
样本,我们可以有log(0)。但
浏览 0
提问于2022-10-25
得票数 0
2
回答
pytorch
的
交叉
损失
与keras
的
"categorical_crossentropy“有区别吗?
、
、
、
我确信我
的
keras版本
的
神经网络与
pytorch
中
的
非常接近,但在训练过程中,我看到
pytorch
网络
的
损失
值比keras网络
的
损失
值要低得多。我想知道这是不是因为我没有正确复制keras中
的
pytorch
网络,或者两个框架中
的
损失
计算是不同
的
。resnet.compile(loss='categorical_crossentropy
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
1
回答
在
使用
完全卷积网络
的
语义分割中,为什么
交叉
熵
损失
比L1或L2
损失
更受欢迎?
、
、
我正在训练一个具有
编码
器-解码器架构
的
完全卷积网络,用于图像分割任务,目前正在
使用
二进制
交叉
熵
损失
进行前景/背景预测。 我试图搜索和阅读关于为什么
使用
交叉
熵
损失
而不是L1或L2
损失
的
信息。
交叉
熵
损失
不能捕获图像
的
整体布局,而L1和L2考虑了整体图像重建。
浏览 2
提问于2019-09-10
得票数 0
1
回答
像在Keras中一样,得到了火炬中
的
交叉
熵
损失
、
、
、
特别是
交叉
熵
损失
似乎返回完全不同
的
数字。0.11]]) print("
PyTorch
float(), t.tensor(y_true).argmax(dim=-1)))```
PyTorch
浏览 8
提问于2020-06-05
得票数 2
回答已采纳
点击加载更多
相关
资讯
机器学习漫谈:损失函数
那些一键抠图的软件是怎么做到的?这些语义分割方法了解一下
LSTM文本分类实战
一步步提高手写数字的识别率(1)
最小化交叉熵损失与求极大似然
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券