假设我有一个三类问题,我想构建一个可以根据一组特征区分类的分类器。我想根据模型区分这3个类的能力来评估它。从我的阅读来看,宏观F1分数似乎是用于评估多类问题分类器的常用指标,其中为每个类计算F1分数,然后将这些F1分数的未加权平均值用作macro F1 score。在其他文献中,我见过用于多类问题的平衡精度,其中计算每一类的精度,然后将这些精度的未加权平均值用作balanced accuracy。
为什么宏观F1得分比平衡准确性更受青睐?我们如何以与平衡准确率相同的方式
我正在寻找一个使用Spark-Scala的多类分类示例,但我还找不到。具体地说,我想训练一个分类模型,并查看训练和测试数据上的所有相关指标。Spark ML (基于DataFrame的API)是否支持多类问题的混淆矩阵?
我正在寻找Spark v2.2及以上的例子。一个端到端的例子将会非常有用。我在这里找不到混淆矩阵评估-