腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(943)
视频
沙龙
1
回答
根据
F1
、精确度
和
召回
率
分数
计算准确性
、
、
在
训练
期间,我忘记将模型
和
模型
的
预测
保存在测试集上。我只有
F1
、精确度
和
召回
率
分数
。我想知道是否有任何方法可以仅根据
F1
,精度
和
召回
率
分数
来计算
准确率
?
f1
= 0.9466979550787799recall = 0.95100185216366
浏览 17
提问于2019-12-27
得票数 1
2
回答
如何
预测
训练
固态
硬盘
后
的
准确率
、
召回
率
和
F1
分数
、
、
、
、
我是深度学习
的
新手,我希望能够使用
F1
分数
来评估经过特定时期
训练
的
模型。我认为它首先需要计算精度
和
召回
率
。
训练
的
模型是SSD-300-Tensorflow。我没有使用sci-kit或任何东西,因为我不确定是否需要这些来计算
分数
,但任何指导都是非常感谢
的
。在名为metrics.py
的
文件夹tf_extended中有一个用于评估
的
文件,该文件具有用
浏览 72
提问于2021-10-03
得票数 0
回答已采纳
1
回答
什么是机器学习中
的
“平均”
f1
分数
?
、
、
、
我知道
f1
分数
,它使用精确度
和
召回
率
。但是,mean
f1
score中
的
“mean”是什么?当我们使用它
的
时候,
如何
计算“均值”?编辑以明确解释我
的
问题:我知道
f1
分数
是
准确率
和
召回
率
的
调和平均值。并且在计算
f1
得分时,需要多个分类结果来计算
准确率
浏览 19
提问于2017-08-10
得票数 1
回答已采纳
1
回答
Google Cloud Platform - Vertex AI -有没有一种方法来查看一段时间内
的
训练
性能图表?
、
我想知道在整个培训过程中,培训效果是
如何
变化
的
。有没有办法通过Vertex AI automl服务访问它?
浏览 13
提问于2021-11-30
得票数 0
2
回答
什么是f1-score,它
的
值表示什么?
、
我知道
如何
使用它,但我不太明白它代表什么。如果我们把公式放在一边,我应该从f分值中理解什么?
浏览 3
提问于2017-08-30
得票数 6
回答已采纳
1
回答
切换标签
的
F1
分数
、
、
我想使用sklearn
的
几个评估
分数
(NMI,ARI,
F1
),使用一些合成数据来评估一种聚类方法。虽然NMI
和
ARI工作得很好,但在标签被交换
的
地方,我确实遇到了关于
F1
分数
的
问题,例如,真实标签是[0, 0, 0, 1, 1, 1],而
预测
标签是[1, 1, 1, 0, 0, 0]。
F1
分数
似乎无法处理此问题,因为我
的
代码生成
的
F1
分数
浏览 17
提问于2019-10-26
得票数 0
回答已采纳
2
回答
在Keras中获取每个类
的
精确度、
召回
率
和
F1
分数
、
、
、
、
我已经使用Keras (2.1.5)中
的
TensorFlow后端
训练
了一个神经网络,我还使用了keras-contrib (2.0.8)库,以便为网络添加一个CRF层作为输出。我想知道在使用神经网络对测试集进行
预测
后
,
如何
获得每个类别的精度、
召回
率
和
f1
分数
。
浏览 1
提问于2018-04-27
得票数 7
回答已采纳
2
回答
无论我
的
训练
集有多小,测试
准确率
总是很高
、
、
我目前面临
的
问题是,无论我在多小
的
训练
数据集上拟合我
的
数据,当我
预测
测试数据
的
标签时,我
的
准确率
总是在90%左右或以上。在本例中,我在15行数据上进行
训练
,并在159,556行上进行测试。我通常会为拥有高测试
准确率
而感到兴奋,但在这种情况下,我觉得我做错了什么。0 0 0 0 0 然后,我使用tr
浏览 0
提问于2019-12-02
得票数 0
1
回答
在尝试使用网格搜索交叉验证优化分类器模型时,我
的
f1
分数
降至0
、
我已经运行了RandomForestClassifier
和
MLPClassifier模型,我收到
的
准确率
和
f1
得分分别为83%
和
39%,而不是86%
和
34%。我
的
数据集不平衡,一个类中有523个,另一个类中有91个,它有22个特征。当我尝试使用网格搜索交叉验证优化我
的
模型时,我对两个模型
的
准确率
都略有提高,但我
的
f1
分数
下降到0%,这可能是什么原
浏览 3
提问于2021-03-12
得票数 0
1
回答
4/96不平衡但.95以上
的
所有指标
、
、
我正在处理一些严重不平衡
的
数据集,其中我
的
1类在二进制分类问题中占数据
的
4%。我有大约1000万行,并开发了一个在accuracy_score、precision_score、recall_score、f1_score、roc_auc_score中输出+.95
的
模型。在模型具有良好
的
f1
的
情况下,情况仍然是这样吗?在我
的
问题上,我该怎么办?
浏览 0
提问于2022-12-18
得票数 1
1
回答
如何
使用sklearn回溯检查分类
、
、
、
、
我在我
的
数据上运行了两种不同
的
分类算法,逻辑回归
和
朴素贝叶斯,但即使我改变
训练
和
测试数据
的
比率,它也能提供相同
的
准确性。下面是我使用
的
代码from sklearn.cross_validation import train_test_split from sklearn.preprocessingNaive Bayes: ', accuracy_score(y_test, model_2.predic
浏览 1
提问于2016-08-14
得票数 1
1
回答
用于
训练
模型
的
Keras
F1
分数
指标
、
、
、
我是keras
的
新手,我想用F1-score作为我
的
指标来
训练
模型。 我遇到了两件事,一个是我可以添加回调,另一个是使用内置
的
度量函数Here,它表示度量函数不会用于
训练
模型。optimizer='rmsprop', metrics=['accuracy']) 在上述情况下,即使准确性作为指标传递,它也不会用于
训练
模型第二件事是使用这里定义
的</em
浏览 34
提问于2019-02-22
得票数 0
7
回答
计算精确度、
召回
率
和
F1-R
分数
的
简单方法
、
、
、
我在R中使用rpart分类器,问题是-我想在测试数据上测试
训练
好
的
分类器。这很好-我可以使用predict.rpart函数。 但我还想计算
准确率
、
召回
率
和
F1
分数
。我
的
问题是-我必须自己为这些函数编写函数吗,或者在R或任何CRAN库中有什么函数可以做到这一点?
浏览 0
提问于2011-12-14
得票数 26
回答已采纳
1
回答
如何
在迁移学习vgg16模型中获得
准确率
、
召回
率
、
f1
分数
?
、
、
、
如何
获得
准确率
、
召回
率
、混淆矩阵
和
f1
分数
?我在深度学习方面是个新手。任何人给我一个资源或帮助我找到信息。
浏览 29
提问于2020-09-10
得票数 0
1
回答
Tensorflow对象检测api
、
、
如何
利用tensorflow对象检测api在推理时绘制具有
预测
边界框
的
地面真实边界框?
如何
计算精确度,
召回
率
和
mAP
的
目标检测使用
固态
硬盘
模型与KITTI类数据集?
浏览 2
提问于2018-10-20
得票数 2
1
回答
python中alpha
和
lambda正则化参数
的
问题
、
、
问题: Logistic回归使用L1正则化
和
L2正则化
训练
logistic回归模型,使用α= 0.1
和
λ= 0.1。报告
准确率
、精确度、
召回
率
、
F1
分数
并打印混淆矩阵_lambda = 0.1classifier = LogisticRegression(penalty='l1',C=c) y
浏览 26
提问于2018-08-30
得票数 0
回答已采纳
1
回答
为什么fscore
的
值大于1?
、
我使用XGBClassifier来拟合数据集,并使用以下代码获得feature_score: feature_score = clf.get_booster().get_score() 我得到
的
fscore
浏览 124
提问于2019-12-16
得票数 0
3
回答
在机器学习中数据集不平衡
的
情况下,AUC是比准确性更好
的
指标吗?如果不是,那么哪个是最好
的
指标?
、
、
、
、
在大多数情况下,如果我处理
的
是不平衡
的
数据,那么准确性并不能给出正确
的
想法。尽管
准确率
很高,但模型
的
性能很差。如果不是auc,这是处理不平衡数据
的
最好方法。
浏览 146
提问于2019-02-26
得票数 0
回答已采纳
1
回答
ROC曲线与最优阈值
我正在做一个练习问题,
预测
一个二元结果。我绘制了一条ROC曲线,找到了未来
预测
观测
的
最佳阈值百分比为1,我发现这个阈值总是与我原始数据中等于1
的
观测百分比相匹配。对此有什么概念上
的
解释吗?
浏览 0
提问于2019-08-11
得票数 1
回答已采纳
2
回答
如何
提高高度不平衡数据集
的
评价
分数
?
、
、
、
我已经
训练
了我
的
伯特模型(基本案例)来检测有毒
的
评论。我使用了来自Kaggle
的
有毒评论分类挑战数据集。我
的
准确率
是98%,各个子类
的
AUROC都在90%以上.然而,我
的
精确性、
召回
率
和
F1
分数
都较低。
分数
显示在图像评价
分数
中。数据集高度不平衡。干净评论
的
比例远高于有毒评论。有什么改善评价成绩
的</em
浏览 0
提问于2021-08-20
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
随机森林算法的一些应用情况
序列标注算法评估模块 seqeval 的使用
一文读懂分类模型评估指标
机器学习与Scikit Learn学习库
机器学习中如何处理不平衡数据?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券