假设我有一个由机器自动获取的数据集,该数据集返回以下度量:
[111, 121, 114, 154, 149, 150]
然后,我手动检查机器接收到的这些值与真实值的比较情况,并在手动检查时得到以下测量值:
[112, 121, 114, 154, 149, 149]
正如您所看到的,数据集在两个地方不同(我在机器看到111的地方测量了112,在机器看到150时,我测量了149 ),这意味着机器是不准确的。
有了它,有什么正确的方法来说明和计算我对机器有多精确或不准确有多自信?我显然可以说这是错误的2/6倍(33%的不准确/66%的准确性),但我不确定是否有更好的方法来表示这一点,特别是用一个更大的数据集比我列出的例子。
作为后续问题,我如何比较这些信心或准确性水平?例如,如果这台机器的精度通常是94%,但最近又被改进为98%,那么除了4%的精度外,我还能怎么说呢?
发布于 2021-09-01 11:56:54
编辑--我会把它留给真正的分类任务,但是我同意OP没有描述分类任务的评论。
你可以用错误率来形容它。
首先是的成功率,所以是的错误率。
现在有了的成功率,所以有了的错误率。
您通过降低了错误率。
https://datascience.stackexchange.com/questions/100705
复制