p=19018
之前我们讨论了使用ROC曲线来描述分类器的优势,有人说它描述了“随机猜测类别的策略”,让我们回到ROC曲线来说明。...考虑一个非常简单的数据集,其中包含10个观测值(不可线性分离)
在这里我们可以检查一下,确实是不可分离的
plot(x1,x2,col=c("red","blue")[1+y],pch=19)
考虑逻辑回归...reg = glm(y~x1+x2,data=df,family=binomial(link = "logit"))
我们可以使用我们自己的roc函数
roc=function(s,print...我们考虑另一个函数来绘制ROC曲线
y=roc(x)lines(x,y,type="s",col="red")
?...我们确实有一个“完美的分类器”(曲线靠近左上角)
?
?
有错误。那应该是下面的情况
?
在10%的情况下,我们可能会分类错误
?
更多的错误分类
?
?
最终我们有对角线
?
?