腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1059)
视频
沙龙
1
回答
不平衡
类
f1
分数
含义
、
、
、
1.00 0.98 0.99 125000 Class 1 0.33 0.84 0.47 1500 大家好, 在这个模型中,
f1
分数
对预测1
类
不是很好,1
类
是少数
类
。因为只有2个
类
,如果它不是0
类
,那么它就是1
类
。 换句话说,如果模型可以将数据识别为
类
0,那么它肯定不是
类
1(特别是当
类
0的精度为1时)。这意味着模型仍然做得很好。 它
浏览 50
提问于2021-01-04
得票数 0
回答已采纳
2
回答
在keras中使用class_weight处理
不平衡
数据集时,准确率会显著降低
、
、
、
我正在对亚马逊书评进行情感分析,数据集严重
不平衡
。正面评论几乎是负面评论的10倍,训练和测试的准确率都在90%左右(数据集
不平衡
)。
浏览 2
提问于2018-11-25
得票数 1
1
回答
对于多
类
分类问题,Sklearn
F1
评分“微”和“加权”有什么区别?
、
、
我有一个阶级
不平衡
的多
类
分类问题。我寻找最好的标准来评估我的模型。学习有多种计算
F1
分数
的方法。我想了解不同之处。 当出现班级
不平衡
时,你有什么建议?
浏览 0
提问于2018-11-08
得票数 22
回答已采纳
1
回答
AUC高,召回率100%,但准确率和
F1
低。
、
、
、
、
我有一个
不平衡
的数据集,它有43323行,其中9行属于“failure”
类
,其他行属于“normal”
类
。而分类器的精度为0.18%,
F1
评分为0.37%。,我假设我可以通过更改阈值来获得更好的
F1
分数
,但是我失败了(我检查了0到1之间的阈值,步骤=0)。而且,在我看来,通常在处理
不平衡
的数据集时,很难获得高召回率。的目标是得到一个更好的
F1
分数
。下一步我能做些什么?谢谢! (要明确的是,我使用SMOTE来对训练数据集中的故障样本进行
浏览 2
提问于2022-10-19
得票数 0
1
回答
F1
分数
不是准确率和召回率的调和平均值的原因是什么?
、
、
什么原因会导致
F1
分数
不是精度和召回率的调和平均值,而多
类
的宏观平均加权相等?我的数据集是
不平衡
的,预测是不正确的。
浏览 33
提问于2019-02-03
得票数 0
1
回答
精确性,召回和/或
F1
?我该用哪一种?或者别的什么?
、
、
、
、
我有三门课:"Wait","Fowards","Backwards"我知道
F1
浏览 0
提问于2021-07-29
得票数 1
2
回答
数据
不平衡
时
f1
评分的早期停止问题
、
、
、
、
我有一个高度
不平衡
的数据集,只有不到0.5%的次要
类
。使用Keras,我将对DNN进行培训,并评估验证集的性能。损失函数为binary_crossentropy。我把我的早期停止
f1
评分,而不是验证损失。我在训练期间观察到的是,
f1
分数
上下波动很大,而验证损失却在减少。实际上,我的
f1
分数
很低,而且早停下来,尽管
f1
的
分数
是很多时代的. 我对此很困惑。
浏览 0
提问于2018-11-17
得票数 6
1
回答
度量
不平衡
多
类
问题的度量
我有一个多
类
的
不平衡
问题。因变量如下所示。=平衡的随机森林算法来处理
不平衡
问题。
分数
都是用“宏”方法计算的。还是评估模型的总体平均
分数
(包括2级)?我有评估模型使用k折叠简历技术,并显示以下
分数
。它显示了整体的精确性、召回率和
F1
评分。
浏览 0
提问于2018-11-16
得票数 2
1
回答
不平衡
的学习问题-样本外与验证
、
问题是这种性能只存在于平衡的验证数据上,一旦我用
不平衡
的数据对样本外进行测试,它似乎就偏向于甚至
类
预测。我也尝试过使用加权损失函数,但在样本之外也没有什么乐趣。有没有好的方法来确保验证性能的转换?
浏览 6
提问于2019-07-10
得票数 0
2
回答
如何提高
F1
评分进行分类
、
、
、
、
对于类别标签1(即仅为阳性
类
的
F1
评分),他们都给出了大约56%的
F1
评分。我用过: StandardScaler()GridSearchCV用于超参数TuningRecursive特性消除(对于selection)SMOTE(the数据集是
不平衡
的,因此我使用SMOTE从现有示例创建新示例我还用EnsembleVoteClassifier.As创建了一个集成模型,你可以从图片中看到,加权F
分数
是94%,而第1
类
的F
分数
(也就是表示任务将超过截止日期的阳性
类</
浏览 2
提问于2020-07-01
得票数 1
1
回答
列车/测试OOB评分、准确度和
f1
评分
、
、
然后,准确度
分数
或
f1
评分表示模型在测试集上的表现如何(平衡
类
的准确性更好,
不平衡
类
的
f1
更好)。如有任何意见,将不胜感激。
浏览 3
提问于2021-05-11
得票数 0
回答已采纳
1
回答
为什么我针对多
类
问题的
不平衡
数据的
f1
评分如此之低?
、
、
我正在处理一个多
类
问题和
不平衡
的数据。我正在努力寻找一种算法,可以很好地预测每一个班与蟒蛇(滑雪和熊猫)。我的数据集包含: 620行,12列,是
不平衡
的: 类别0: 47,3%,1: 10,5%,2: 9%,3: 8,6%我试着提高1,2,3
类
,训练不同的算法,但最好的
f1
加权评分仅为58%。我还试着降低0级的样本,并训练同样的算法,但是最好的
f1
加权
分数
是40%。单打独斗的方法不太管用。是否需要更改模型,还是更改有关
不平衡
数据集的其他内容?
浏览 0
提问于2021-07-19
得票数 0
1
回答
在高度
不平衡
的数据中混淆
F1
分数
和AUC
分数
,同时使用5倍交叉验证
、
、
、
我一直在尝试使用5折交叉验证来对高度
不平衡
的数据进行分类。我的样本量是:阳性样本: 1064份(占总数的0.01%) 我也想避免数据泄露。然而,我得到了相当低的平均精度
分数
和F-1
分数
。我使用加权逻辑回归来帮助我处理
不平衡
的数据,因为SMOTE在存在极
不平衡
的数据时不能很好地工作。另外,我在sklearn库中看到了F-1
分数
的几个选项。例如:
f1
score有一个参数:average{‘微’,‘宏’,‘样本’,‘加权’,‘二进制’}。不确
浏览 0
提问于2021-04-03
得票数 1
2
回答
应考虑哪种方法来评价
不平衡
的多
类
分类?
、
、
、
、
我在研究多
类
不平衡
的数据。我的因变量是高度倾斜的。2087530(severe Injury) 3394 Recall score: 0.8110616374089428
F1
如果我考虑到微观结果,我的精确性,
浏览 0
提问于2018-11-07
得票数 1
1
回答
在尝试使用网格搜索交叉验证优化分类器模型时,我的
f1
分数
降至0
、
我已经运行了RandomForestClassifier和MLPClassifier模型,我收到的准确率和
f1
得分分别为83%和39%,而不是86%和34%。我的数据集
不平衡
,一个
类
中有523个,另一个
类
中有91个,它有22个特征。当我尝试使用网格搜索交叉验证优化我的模型时,我对两个模型的准确率都略有提高,但我的
f1
分数
下降到0%,这可能是什么原因?
浏览 3
提问于2021-03-12
得票数 0
1
回答
不平衡
数据集的多
类
分类:精度还是微观
F1
或宏
F1
、
此外,可以将实例分配给一个
类
。我的数据集非常
不平衡
。我知道,在这种情况下,精确性不是一个很好的衡量标准,因为我们可以简单地预测高频度的
类
并获得好的
分数
。我明白对于多
类
分类问题,微
F1
优于宏F1.的意思,但结果却是微
F1
评分与准确度评分相同.。因此,研究替代度量(即微
F1
)而不是精确性的整个想法已经成为一个完整的循环。 我应该使用宏
F1
代替吗?
浏览 0
提问于2019-05-11
得票数 7
2
回答
使用
类
权重后
F1
分数
降低
、
、
、
、
我正在处理一个多
类
分类用例,数据高度
不平衡
。所谓高度
不平衡
的数据,我是指频率最高的
类
和频率最低的
类
之间存在着巨大的差异。以下是我获得的指标: Acc
浏览 2
提问于2020-05-11
得票数 0
1
回答
IBA在分类报告中的
含义
是什么?
、
、
、
imblearn是一个用于处理
不平衡
数据的python库。下面给出了生成分类报告的代码。(y_true, y_pred,target_names=target_names)) pre rec spe
f1
3 iba在这份分类报告中的
含义
是什么这里pre代表精度,rec代表召回,spe代
浏览 0
提问于2021-01-21
得票数 3
回答已采纳
1
回答
在随机森林中,oob决策函数意味着什么,如何从它得到
类
预测,以及如何计算
不平衡
样本的oob。
、
、
、
、
我感兴趣的是,当OOB被用于二进制分类任务时,当它被用于一个
不平衡
的样本时,就会使用sklearn来寻找随机森林的OOB评分。在随机森林中,oob决策函数意味着什么,以及如何从它得到
类
预测?oob决策函数是否提供
类
概率,如果是,我是否通过取较高的数字来获得
类
预测(例如,执行类似于pred_train = np.argmax(forest.oob_decision_function_,axis由于我的课程是
不平衡
的,我不能在这里使用sklearn的默认OOB
分数
,我应该这样做从OOB预测中
浏览 0
提问于2021-01-30
得票数 1
回答已采纳
1
回答
F1
评分和准确性,哪个指标更重要?
我有两个多
类
分类模型来进行预测(准确地说,
类
数是三个)。一个是Keras神经网络,另一个是Scikit学习库中的梯度增强分类器。我注意到,在相同的数据上训练后,GBC具有较高的精度评分,而Keras模型具有较高的
F1
评分。我应该使用哪种模型来预测未来的数据?哪个指标更重要?
浏览 0
提问于2019-12-23
得票数 7
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
解决机器学习中不平衡类的问题
方法总结:教你处理机器学习中不平衡类问题
F1携手Frontier公司 将于2022年推出首款模拟经营类游戏
机器学习中如何处理不平衡数据?
当训练样本不平衡时还怎么学习
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券