2019 年第 28 篇,总 52 篇文章 本文大约 9700 字,建议收藏阅读!
机器学习入门系列(2)--如何构建一个完整的机器学习项目,
第十篇!
该系列的前 9 篇文章:
这个系列的文章也是要开始进入尾声了,最后就主要是模型评估部分的内容了。
在机器学习领域中,对模型的评估非常重要,只有选择和问题相匹配的评估方法,才能快速发现算法模型或者训练过程的问题,迭代地对模型进行优化。
模型评估主要分为离线评估和在线评估两个阶段。并且针对分类、回归、排序、序列预测等不同类型的机器学习问题,评估指标的选择也有所不同。
模型评估这部分会介绍以下几方面的内容:
本文会首先介绍性能度量方面的内容,主要是分类问题和回归问题的性能指标,包括以下几个方法的介绍:
性能度量就是指对模型泛化能力衡量的评价标准。
分类问题中最常用的两个性能度量标准--准确率和错误率。
准确率:指的是分类正确的样本数量占样本总数的比例,定义如下:
错误率:指分类错误的样本占样本总数的比例,定义如下:
错误率也是损失函数为 0-1 损失时的误差。
这两种评价标准是分类问题中最简单也是最直观的评价指标。但它们都存在一个问题,在类别不平衡的情况下,它们都无法有效评价模型的泛化能力。即如果此时有 99% 的负样本,那么模型预测所有样本都是负样本的时候,可以得到 99% 的准确率。
这种情况就是在类别不平衡的时候,占比大的类别往往成为影响准确率的最主要因素!
这种时候,其中一种解决方法就是更换评价指标,比如采用更为有效的平均准确率(每个类别的样本准确率的算术平均),即:
其中 m 是类别的数量。
对于准确率和错误率,用 Python 代码实现如下图所示:
def accuracy(y_true, y_pred):
return sum(y == y_p for y, y_p in zip(y_true, y_pred)) / len(y_true)
def error(y_true, y_pred):
return sum(y != y_p for y, y_p in zip(y_true, y_pred)) / len(y_true)
一个简单的二分类测试样例:
y_true = [1, 0, 1, 0, 1]
y_pred = [0, 0, 1, 1, 0]
acc = accuracy(y_true, y_pred)
err = error(y_true, y_pred)
print('accuracy=', acc)
print('error=', err)
输出结果如下:
accuracy= 0.4
error= 0.6
精确率,也被称作查准率,是指所有预测为正类的结果中,真正的正类的比例。公式如下:
召回率,也被称作查全率,是指所有正类中,被分类器找出来的比例。公式如下:
对于上述两个公式的符号定义,是在二分类问题中,我们将关注的类别作为正类,其他类别作为负类别,因此,定义:
TP(True Positive)
:真正正类的数量,即分类为正类,实际也是正类的样本数量;FP
(False Positive):假正类的数量,即分类为正类,但实际是负类的样本数量;FN(False Negative)
:假负类的数量,即分类为负类,但实际是正类的样本数量;TN(True Negative)
:真负类的数量,即分类是负类,实际也负类的样本数量。更形象的说明,可以参考下表,也是混淆矩阵的定义:
预测:正类 | 预测:负类 | |
---|---|---|
实际:正类 | TP | FN |
实际:负类 | FP | TN |
精确率和召回率是一对矛盾的度量,通常精确率高时,召回率往往会比较低;而召回率高时,精确率则会比较低,原因如下:
FP=0
,P=1
,但 FN
必然非常大(没把握的都判定为负类),召回率就非常低了;FN=0
,但 FP
也很大,所有精确率就很低了。而且不同的问题,侧重的评价指标也不同,比如:
精确率和召回率的代码简单实现如下,这是基于二分类的情况
def precision(y_true, y_pred):
true_positive = sum(y and y_p for y, y_p in zip(y_true, y_pred))
predicted_positive = sum(y_pred)
return true_positive / predicted_positive
def recall(y_true, y_pred):
true_positive = sum(y and y_p for y, y_p in zip(y_true, y_pred))
real_positive = sum(y_true)
return true_positive / real_positive
简单的测试样例以及输出如下
y_true = [1, 0, 1, 0, 1]
y_pred = [0, 0, 1, 1, 0]
precisions = precision(y_true, y_pred)
recalls = recall(y_true, y_pred)
print('precisions=', precisions) # 输出为0.5
print('recalls=', recalls) # 输出为 0.3333
很多时候,我们都可以根据分类器的预测结果对样本进行排序,越靠前的是分类器越有把握是正类的样本,而最后面的自然就是分类器觉得最不可能是正类的样本了。
一般来说,这个预测结果其实就是分类器对样本判断为某个类别的置信度,我们可以选择不同的阈值来调整分类器对某个样本的输出结果,比如设置阈值是 0.9,那么只有置信度是大于等于 0.9 的样本才会最终判定为正类,其余的都是负类。
我们设置不同的阈值,自然就会得到不同的正类数量和负类数量,依次计算不同情况的精确率和召回率,然后我们可以以精确率为纵轴,召回率为横轴,绘制一条“P-R曲线”,如下图所示:
来自西瓜书,周志华老师的《机器学习》
当然,以上这个曲线是比较理想情况下的,未来绘图方便和美观,实际情况如下图所示:
对于 P-R 曲线,有:
1.曲线从左上角 (0,1)
到右下角 (1,0)
的走势,正好反映了精确率和召回率是一对矛盾的度量,一个高另一个低的特点:
2.P-R
曲线可以非常直观显示出分类器在样本总体上的精确率和召回率。所以可以对比两个分类器在同个测试集上的 P-R
曲线来比较它们的分类能力:
B
的 P-R
曲线被分类器 A
的曲线完全包住,如下左图所示,则可以说,A
的性能优于 B
;当然了,平衡点还是过于简化,于是有了 F1 值这个新的评价标准,它是精确率和召回率的调和平均值,定义为:
F1 还有一个更一般的形式,能让我们表达出对精确率和召回率的不同偏好,定义如下:
其中
度量了召回率对精确率的相对重要性,当 β=1,就是 F1;如果 β>1,召回率更加重要;如果 β<1,则是精确率更加重要。
很多时候,我们会得到不止一个二分类的混淆矩阵,比如多次训练/测试得到多个混淆矩阵,在多个数据集上进行训练/测试来估计算法的“全局”性能,或者是执行多分类任务时对类别两两组合得到多个混淆矩阵。
总之,我们希望在 n 个二分类混淆矩阵上综合考察精确率和召回率。这里一般有两种方法来进行考察:
1.第一种是直接在各个混淆矩阵上分别计算出精确率和召回率,记为
,接着计算平均值,就得到宏精确率(macro-P)、宏召回率(macro-R)以及宏 F1(macro-F1) , 定义如下:
2.第二种则是对每个混淆矩阵的对应元素进行平均,得到 TP、FP、TN、FN 的平均值,再基于这些平均值就就得到微精确率(micro-P)、微召回率(micro-R)以及微 F1(micro-F1) , 定义如下:
ROC 曲线的 Receiver Operating Characteristic 曲线的简称,中文名是“受试者工作特征”,起源于军事领域,后广泛应用于医学领域。
它的横坐标是假正例率(False Positive Rate, FPR),纵坐标是真正例率(True Positive Rate, TPR),两者的定义分别如下:
TPR 表示正类中被分类器预测为正类的概率,刚好就等于正类的召回率;
FPR 表示负类中被分类器预测为正类的概率,它等于 1 减去负类的召回率,负类的召回率如下,称为真反例率(True Negative Rate, TNR), 也被称为特异性,表示负类被正确分类的比例。
跟 P-R 曲线的绘制一样,ROC 曲线其实也是通过不断调整区分正负类结果的阈值来绘制得到的,它的纵轴是 TPR,横轴是 FPR,这里借鉴《百面机器学习》上的示例来介绍,首先有下图所示的表格,表格是一个二分类模型的输出结果样例,包含 20 个样本,然后有对应的真实标签,其中 p 表示是正类别,而 n 表示是负类别。然后模型输出概率表示模型对判断该样本是正类的置信度。
最开始如果设置阈值是无穷大的时候,那么模型会将所有样本判断为负类,TP 和 FP 都会是 0,也就是 TPR 和 FPR 必然也是 0,ROC 曲线的第一个坐标就是 (0, 0)。接着,阈值设置为 0.9,此时样本序号为 1 的样本会被判断为正样本,并且它确实是正样本,那么 TP = 1,而正类样本的个数是有 10 个,所有 TPR = 0.1;然后没有预测错误的正类,即 FP = 0,FPR = 0,这个时候曲线的第二个坐标就是 (0, 0.1)。
通过不断调整阈值,就可以得到曲线的不同坐标,最终得到下图所示的 ROC 曲线。
第二种更直观地绘制 ROC 曲线的方法,首先统计出正负样本的数量,假设分别是 P 和 N,接着,将横轴的刻度间隔设置为 1/N,纵轴的刻度间隔设置为 1/P。然后根据模型输出的概率对样本排序,并按顺序遍历样本,从零点开始绘制 ROC 曲线,每次遇到一个正样本就沿纵轴方向绘制一个刻度间隔的曲线,遇到一个负样本就沿横轴绘制一个刻度间隔的曲线,直到遍历完所有样本,曲线最终停留在 (1,1) 这个点,此时就完成了 ROC 曲线的绘制了。
当然,更一般的 ROC 曲线是如下图所示的,会更加的平滑,上图是由于样本数量有限才导致的。
对于 ROC 曲线,有以下几点特性:
1.ROC 曲线通常都是从左下角 (0,0) 开始,到右上角 (1,1) 结束。
2.ROC 曲线中:
TPR=1
,FPR=0
,也就是正类都预测出来,并且没有预测错误;3.同样可以根据 ROC 曲线来判断两个分类器的性能:
(0, 1)
越好;ROC
曲线发生了交叉,则同样很难直接判断两者的性能优劣,需要借助 ROC
曲线下面积大小来做判断,而这个面积被称为 AUC:Area Under ROC Curve
。简单的代码实现如下:
def true_negative_rate(y_true, y_pred):
true_negative = sum(1 - (yi or yi_hat) for yi, yi_hat in zip(y_true, y_pred))
actual_negative = len(y_true) - sum(y_true)
return true_negative / actual_negative
def roc(y, y_hat_prob):
thresholds = sorted(set(y_hat_prob), reverse=True)
ret = [[0, 0]]
for threshold in thresholds:
y_hat = [int(yi_hat_prob >= threshold) for yi_hat_prob in y_hat_prob]
ret.append([recall(y, y_hat), 1 - true_negative_rate(y, y_hat)])
return ret
简单的测试例子如下:
y_true = [1, 0, 1, 0, 1]
y_hat_prob = [0.9, 0.85, 0.8, 0.7, 0.6]
roc_list = roc(y_true, y_hat_prob)
print('roc_list:', roc_list)
# 输出结果是 roc_list: [[0, 0], [0.3333333333333333, 0.0], [0.3333333333333333, 0.5], [0.6666666666666666, 0.5], [0.6666666666666666, 1.0], [1.0, 1.0]]
相同点
1.两者刻画的都是阈值的选择对分类度量指标的影响。虽然每个分类器对每个样本都会输出一个概率,也就是置信度,但通常我们都会人为设置一个阈值来影响分类器最终判断的结果,比如设置一个很高的阈值--0.95,或者比较低的阈值--0.3。
2.两个曲线的每个点都是对应某个阈值的选择,该点是在该阈值下的 (精确率,召回率)
/ (TPR, FPR)
。然后沿着横轴方向对应阈值的下降。
不同
相比较 P-R
曲线,ROC
曲线有一个特点,就是正负样本的分布发生变化时,它的曲线形状能够基本保持不变。如下图所示:
分别比较了增加十倍的负样本后, P-R
和 ROC
曲线的变化,可以看到 ROC
曲线的形状基本不变,但 P-R
曲线发生了明显的变化。
所以 ROC
曲线的这个特点可以降低不同测试集带来的干扰,更加客观地评估模型本身的性能,因此它适用的场景更多,比如排序、推荐、广告等领域。
这也是由于现实场景中很多问题都会存在正负样本数量不平衡的情况,比如计算广告领域经常涉及转化率模型,正样本的数量往往是负样本数量的千分之一甚至万分之一,这时候选择 ROC
曲线更加考验反映模型本身的好坏。
当然,如果希望看到模型在特定数据集上的表现,P-R
曲线会更直观地反映其性能。所以还是需要具体问题具体分析。
AUC
是 ROC
曲线的面积,其物理意义是:从所有正样本中随机挑选一个样本,模型将其预测为正样本的概率是 p1;从所有负样本中随机挑选一个样本,模型将其预测为正样本的概率是 p0。
的概率就是 AUC
。
AUC
曲线有以下几个特点:
的概率是 0.5,则 AUC=0.5
;
AUC
在样本不平衡的条件下依然适用。
如:在反欺诈场景下,假设正常用户为正类(设占比 99.9%),欺诈用户为负类(设占比 0.1%)。
如果使用准确率评估,则将所有用户预测为正类即可获得 99.9%的准确率。很明显这并不是一个很好的预测结果,因为欺诈用户全部未能找出。
如果使用 AUC
评估,则此时 FPR=1,TPR=1
,对应的 AUC=0.5
。因此 AUC
成功的指出了这并不是一个很好的预测结果。AUC
反应的是模型对于样本的排序能力(根据样本预测为正类的概率来排序)。如:AUC=0.8
表示:给定一个正样本和一个负样本,在 80%
的情况下,模型对正样本预测为正类的概率大于对负样本预测为正类的概率。AUC
对于均匀采样不敏感。如:上述反欺诈场景中,假设对正常用户进行均匀的降采样。任意给定一个负样本 n,设模型对其预测为正类的概率为 Pn 。降采样前后,由于是均匀采样,因此预测为正类的概率大于 Pn 和小于 Pn 的真正样本的比例没有发生变化。因此 AUC
保持不变。
但是如果是非均匀的降采样,则预测为正类的概率大于 Pn 和小于 Pn 的真正样本的比例会发生变化,这也会导致 AUC
发生变化。AUC
越高。因为这表明正负样本之间排序的把握越大,区分度越高。
如:在电商场景中,点击率模型的 AUC
要低于购买转化模型的 AUC
。因为点击行为的成本低于购买行为的成本,所以点击率模型中正负样本的差别要小于购买转化模型中正负样本的差别。AUC
的计算可以通过对 ROC
曲线下各部分的面积求和而得。假设 ROC
曲线是由坐标为下列这些点按顺序连接而成的:
那么 AUC
可以这样估算:
代码实现如下:
def get_auc(y, y_hat_prob):
roc_val = iter(roc(y, y_hat_prob))
tpr_pre, fpr_pre = next(roc_val)
auc = 0
for tpr, fpr in roc_val:
auc += (tpr + tpr_pre) * (fpr - fpr_pre) / 2
tpr_pre = tpr
fpr_pre = fpr
return auc
简单的测试样例如下:
y_true = [1, 0, 1, 0, 1]
y_hat_prob = [0.9, 0.85, 0.8, 0.7, 0.6]
auc_val = get_auc(y_true, y_hat_prob)
print('auc_val:', auc_val) # 输出是 0.5
前面介绍的性能指标都有一个隐式的前提,错误都是均等代价。但实际应用过程中,不同类型的错误所造成的后果是不同的。比如将健康人判断为患者,与患者被判断为健康人,代价肯定是不一样的,前者可能就是需要再次进行检查,而后者可能错过治疗的最佳时机。
因此,为了衡量不同类型所造成的不同损失,可以为错误赋予非均等代价(unequal cost)。
对于一个二类分类问题,可以设定一个代价矩阵(cost matrix),其中
表示将第 i
类样本预测为第 j
类样本的代价,而预测正确的代价是 0 。如下表所示:
预测:第 0 类 | 预测:第 1 类 | |
---|---|---|
真实:第 0 类 | 0 | |
真实: 第 1 类 | 0 |
total cost
的模型。ROC
曲线不能直接反映出分类器的期望总体代价,此时需要使用代价曲线 cost curve
其中,假正例率 FPR
表示模型将负样本预测为正类的概率,定义如下:
假负例率 FNR
表示将正样本预测为负类的概率,定义如下:
代价曲线如下图所示:
对于回归问题,常用的性能度量标准有:
1.均方误差(Mean Square Error, MSE),定义如下:
2.均方根误差(Root Mean Squared Error, RMSE),定义如下:
3.均方根对数误差(Root Mean Squared Logarithmic Error, RMSLE),定义如下
4.平均绝对误差(Mean Absolute Error, MAE),定义如下:
这四个标准中,比较常用的第一个和第二个,即 MSE
和 RMSE
,这两个标准一般都可以很好反映回归模型预测值和真实值的偏离程度,但如果遇到个别偏离程度非常大的离群点时,即便数量很少,也会让这两个指标变得很差。
遇到这种情况,有三种解决思路:
RMSLE
,它关注的是预测误差的比例,即便存在离群点,也可以降低这些离群点的影响;或者是 MAPE
,平均绝对百分比误差(Mean Absolute Percent Error),定义为:RMSE
的简单代码实现如下所示:
def rmse(predictions, targets):
# 真实值和预测值的误差
differences = predictions - targets
differences_squared = differences ** 2
mean_of_differences_squared = differences_squared.mean()
# 取平方根
rmse_val = np.sqrt(mean_of_differences_squared)
return rmse_val
本文主要是基于二分类问题来介绍分类问题方面的几种性能评估,它们都是非常常用的评价指标,通常实际应用中也主要是采用这几种作为评估模型性能的方法。
参考:
欢迎关注我的微信公众号--机器学习与计算机视觉,或者扫描下方的二维码,大家一起交流,学习和进步!