拉斯文·洛克
我在SVC中训练了用于分类的模型,我想可视化训练过程,因此将详细设置为True。这是我得到的结果:
optimazation finished,#iter = 200
obj = -315.082675, rho = 3.537407
nSV = 232, nBSV = 199
iter说迭代需要收敛。obj和rho在这种情况下是什么意思?
Sandipan Dey
scikit-learn的SVC
实现基于libsvm
。您正在尝试解决ν-支持向量分类问题,此问题在此处定义为以下二次程序(原始问题):
对应的双重问题在哪里
最佳超平面的软边距变量的ν-SVC使用ν-参数化。该标准正则化参数Ç由参数替换ν∈[0,1]其是下和上的是支持向量的例子的数量和躺在超平面,分别的错误一侧上界,如所提到这里。
变量ρ也被优化。注意,对于ξ= 0,这两个类别之间的距离为2ρ/ || w ||。在这里,rho表示收敛时ρ的最佳值。和OBJ是目标函数的最优值(其被最小化)在收敛。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
编辑于
我来说两句