了解分类结果

杰森94

我运行了一个简单的二类神经网络,最终得到了这个结果(评估):

在此处输入图片说明

我想我会很乐意与True PositiveFalse Negative结果。但是是什么False Positive意思呢?False Positive意味着它没有正确分类 2002 元素并错过了它们?

Accuracy是66%,这是非常糟糕的吧?那和 有什么区别AUC

Precision 因为准确性也很差而受到影响(我希望达到 80% 以上)?

我如何翻转Positive LabelNegative Label我真的很想预测目标要找到的分类CANDIDATE

纳西姆·本

基本上,对于假/真阳性和假/真阴性:您已经检测到数据集中几乎所有的候选样本,其中 3420 个被正确预测为 TRUE,其中 31 个被预测为 FALSE。此信息在召回率中捕获:3420/(3420+31) = 99.1%。非常高,非常好。

但是,您预测的候选对象过多事实上,在模型预测的所有 TRUE 值中,3420 个实际为 TRUE,2002 个实际为 FALSE。这使得精度比率变差:3420/(3420+2002)=63.1%。这不是那么好。

F1 是 Precision 和 Recall 的组合,它将它们汇总为一个值,某种加权平均值。公式为 2*(P*R)/(P+R)。因此,如果 Precision 或 Recall 之一不好:F1score 将捕获它。

您可以看到您的数据集中共有 5999 个示例。其中,3451 是真的,2548 是真的。所以你有 57% 的数据是真实的。如果你制作了一个非常愚蠢的分类器,无论特征是什么,它都将所有内容都归类为 TRUE,那么你将获得 57% 的准确率。鉴于此,66.1% 的准确率并不是很好。如果您查看该表的第二列,您只会在 5999 个样本中预测 577 个 FALSE。您的分类器严重偏向于 TRUE 预测。

对于 AUC,它代表曲线下面积。您可以在此处阅读有关它的更多详细信息总结一下:当你预测一个值时,你并没有直接得到 True 或 False 。您会得到一个介于 0(假)和 1(真)之间的实数。对预测值(例如 0.2)进行分类的方法是使用阈值。默认情况下,阈值设置为 0.5。因此,如果您预测 0.2,您的模型将预测将其归类为 False,因为 0.2<0.5。但是你可以让这个阈值在 0 和 1 之间移动。如果分类器真的很好,如果它能够很好地区分 Falses 和 Trues 预测,那么 AUC 将接近 1。如果它真的很糟糕,它将接近 0.5 . 如果您需要更多信息,请参阅链接。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章