我有一个包含图像和相关描述的数据集。我将它们分为具有各自分类器(视觉和文本)的两个单独的数据集,现在我想将这两个分类器的预测结合起来以形成最终预测。
但是,我的类是二进制的1或0。我最终得到两个n_samples列表,其中填充了1和0。我假设对于大多数算法/分类器而言,这还不足以做出有用的预测(即,当一个分类器预测为1而另一个分类器预测为0时)。
因此,我认为我可以将预测的概率用作某种形式的决定性加权。SKlearn中的SVC具有此svm.SVC.predict_proba
功能。返回一个看起来像这样的数组:
[[ 0.9486674 0.0513326 ]
[ 0.97346471 0.02653529]
[ 0.9486674 0.0513326 ]]
但是我似乎无法将其与我的Kfold交叉验证功能结合使用,cross_validation.cross_val_predict
因为它本身就是一个预测函数,并且不包括类似的概率预测输出。有什么办法可以将两者结合起来吗?还是我错过了什么?
可能:我在攻击我的问题是否完全错误,是否有更好的方法来组合两个二进制分类器的预测?
提前致谢
您需要执行GridSearchCrossValidation而不只是CV。CV用于绩效评估,其本身实际上并不适合估算器。
from sklearn.datasets import make_classification
from sklearn.svm import SVC
from sklearn.grid_search import GridSearchCV
# unbalanced classification
X, y = make_classification(n_samples=1000, weights=[0.1, 0.9])
# use grid search for tuning hyperparameters
svc = SVC(class_weight='auto', probability=True)
params_space = {'kernel': ['linear', 'poly', 'rbf']}
# set cv to your K-fold cross-validation
gs = GridSearchCV(svc, params_space, n_jobs=-1, cv=5)
# fit the estimator
gs.fit(X, y)
gs.predict_proba(X)
Out[136]:
array([[ 0.0074817 , 0.9925183 ],
[ 0.03655982, 0.96344018],
[ 0.0074933 , 0.9925067 ],
...,
[ 0.02487791, 0.97512209],
[ 0.01426704, 0.98573296],
[ 0.98574072, 0.01425928]])
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句