scikit学习决策树模型评估

Lin Ma

这是相关的代码和文档,想知道cross_val_score没有显式指定的默认值score,输出数组表示精度,AUC或其他指标吗?

将Python 2.7与miniconda解释器一起使用。

http://scikit-learn.org/stable/modules/generation/sklearn.tree.DecisionTreeClassifier.html

>>> from sklearn.datasets import load_iris
>>> from sklearn.cross_validation import cross_val_score
>>> from sklearn.tree import DecisionTreeClassifier
>>> clf = DecisionTreeClassifier(random_state=0)
>>> iris = load_iris()
>>> cross_val_score(clf, iris.data, iris.target, cv=10)
...                             
...
array([ 1.     ,  0.93...,  0.86...,  0.93...,  0.93...,
        0.93...,  0.93...,  1.     ,  0.93...,  1.      ])

问候,林

胡安帕·阿里维利亚加

用户指南中

默认情况下,在每次CV迭代中计算的分数是估算器的分数方法。可以通过使用scoring参数来更改此设置:

从DecisionTreeClassifier文档中

返回给定测试数据和标签上的平均准确度。在多标签分类中,这是子集准确性,这是一个苛刻的指标,因为您需要为每个样本正确预测每个标签集。

不要被“平均准确性”所迷惑,这只是人们计算准确性的常规方式。点击链接到

    from .metrics import accuracy_score
    return accuracy_score(y, self.predict(X), sample_weight=sample_weight)

现在metrics.accuracy_score

def accuracy_score(y_true, y_pred, normalize=True, sample_weight=None):
    ...
    # Compute accuracy for each possible representation
    y_type, y_true, y_pred = _check_targets(y_true, y_pred)
    if y_type.startswith('multilabel'):
        differing_labels = count_nonzero(y_true - y_pred, axis=1)
        score = differing_labels == 0
    else:
        score = y_true == y_pred

    return _weighted_sum(score, sample_weight, normalize)

如果您仍然不相信:

def _weighted_sum(sample_score, sample_weight, normalize=False):
    if normalize:
        return np.average(sample_score, weights=sample_weight)
    elif sample_weight is not None:
        return np.dot(sample_score, sample_weight)
    else:
        return sample_score.sum()

注意:对于accuracy_scorenormalize参数,默认值为True,因此它仅返回np.average布尔numpy数组,因此仅是正确预测的平均数。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

如何获取scikit学习决策树的所有节点的pos / neg实例计数?

来自分类Dev

如何显示此 scikit-learn 决策树脚本的图形决策树?

来自分类Dev

决策树学习算法中的重复训练数据

来自分类Dev

决策树学习算法中的重复训练数据

来自分类Dev

在scikit-learn中可视化决策树

来自分类Dev

是否可以在scikit-learn中打印决策树?

来自分类Dev

输出数量可变的Python Scikit决策树

来自分类Dev

如何从scikit-learn解释决策树

来自分类Dev

在scikit的决策树中对random_state感到困惑

来自分类Dev

决策树深度

来自分类Dev

根据决策树算法生成的模型进行预测

来自分类Dev

如何为决策树模型创建混淆矩阵

来自分类Dev

如何在ignite中保存决策树训练模型?

来自分类Dev

使用基于决策树比较的模型证明下界

来自分类Dev

如何在Scikit学习中将固定的验证集(而非K折交叉验证)用于决策树分类器/随机森林分类器?

来自分类Dev

如何在scikit学习决策树中形成数据以构成n个特征和n个样本的数组?

来自分类Dev

决策树/树桩与Adaboost

来自分类Dev

如何存储决策树

来自分类Dev

验证决策树图

来自分类Dev

遍历sklearn决策树

来自分类Dev

交叉验证决策树

来自分类Dev

试图做出决策树

来自分类Dev

策划党决策树

来自分类Dev

如何在评估时强制决策树仅使用整数

来自分类Dev

Tidymodels:R中的决策树学习-错误:未选择任何变量或术语

来自分类Dev

Tidymodels:R中的决策树学习-错误:未选择任何变量或术语

来自分类Dev

scikit精简决策树是否支持无序(“枚举”)多类功能?

来自分类Dev

以png或pdf可视化scikit-learn / sklearn多输出决策树回归

来自分类Dev

在决策树中为每个数据点找到对应的叶节点(scikit-learn)

Related 相关文章

  1. 1

    如何获取scikit学习决策树的所有节点的pos / neg实例计数?

  2. 2

    如何显示此 scikit-learn 决策树脚本的图形决策树?

  3. 3

    决策树学习算法中的重复训练数据

  4. 4

    决策树学习算法中的重复训练数据

  5. 5

    在scikit-learn中可视化决策树

  6. 6

    是否可以在scikit-learn中打印决策树?

  7. 7

    输出数量可变的Python Scikit决策树

  8. 8

    如何从scikit-learn解释决策树

  9. 9

    在scikit的决策树中对random_state感到困惑

  10. 10

    决策树深度

  11. 11

    根据决策树算法生成的模型进行预测

  12. 12

    如何为决策树模型创建混淆矩阵

  13. 13

    如何在ignite中保存决策树训练模型?

  14. 14

    使用基于决策树比较的模型证明下界

  15. 15

    如何在Scikit学习中将固定的验证集(而非K折交叉验证)用于决策树分类器/随机森林分类器?

  16. 16

    如何在scikit学习决策树中形成数据以构成n个特征和n个样本的数组?

  17. 17

    决策树/树桩与Adaboost

  18. 18

    如何存储决策树

  19. 19

    验证决策树图

  20. 20

    遍历sklearn决策树

  21. 21

    交叉验证决策树

  22. 22

    试图做出决策树

  23. 23

    策划党决策树

  24. 24

    如何在评估时强制决策树仅使用整数

  25. 25

    Tidymodels:R中的决策树学习-错误:未选择任何变量或术语

  26. 26

    Tidymodels:R中的决策树学习-错误:未选择任何变量或术语

  27. 27

    scikit精简决策树是否支持无序(“枚举”)多类功能?

  28. 28

    以png或pdf可视化scikit-learn / sklearn多输出决策树回归

  29. 29

    在决策树中为每个数据点找到对应的叶节点(scikit-learn)

热门标签

归档