一类错误 二类错误

这个概念本来在我实际建模中很少用,但是别人提到了,为了方便沟通还是有必要了解一下。
一类错误就是把positive -> negative 、1 -> 0、bad -> good,








FN就是所谓的一类错误,把1预测成了0,FP就是二类错误,把0预测成了1。
一类错误率是 FN/(TP+FN)
二类错误率是FP/(FP+TN)
TN/(FP+TN)叫做specificity,ROC的横轴可以叫FPR,也可以叫1-specificity,也叫false alarm rate;ROC的纵轴就是TPR,也叫sensitivity,也叫hit rate。
如果说样本整体bad rate升高,也就是(FN+TP)/TOTAL增大,那么这个时候肯定FN肯定增大。FN+TP增大,不会是TP单独增大,FN和TP都会增加。也可以这样想,当样本整体bad rate升高的时候,模型比如cutoff是top 10%,这个时候这个top 10%的bad rate也会相应增大,所以FN必然增大。

假设检验中的一类错误和二类错误
原假设为真,拒绝原假设 是 一类错误
原假设为假,接受原假设 是 二类错误
这个和上面混淆矩阵中的概念其实是一致的
p-value的另外一种解释就是犯一类错误的概率


留言

熱門文章