我正面临着一个假阳性减少问题,并且正负大小的比率大约是。1.7:1.我从answer中了解到,使用精确度、召回率、FScore,甚至根据成本不同地对真-正、假正、真-负和假阴性进行加权,来评估不同的模型来处理指定的分类任务。由于从keras中删除了Precision, Recall, and FScore,因此我找到了一些方法来在训练期间跟踪这些指标,例如github repo keras-metrics。predicted_positives + K.epsilon())
re
我正在尝试用python获取Bland-Altman Statistics,就像我们在R中得到的一样。但是我没有找到任何关于这方面的东西。我已经用python编写了Bland-Altman图。我对共识的偏见和限制特别感兴趣。谢谢。这是我从R得到的: Standard deviation of bias: 6.52818
Standard error