当使用内核来界定SVM中的非线性域时,我们将根据训练示例介绍新功能。然后,我们具有与培训示例一样多的功能。但是,拥有与示例一样多的功能会增加过度拟合的机会吗?我们应该放弃其中一些新功能吗?
您确实不能删除任何内核生成的功能,在许多情况下,您不知道正在使用哪些功能或给予了哪些权重。除了使用内核之外,SVM还使用正则化,并且此正则化减少了过拟合的可能性。
您可以阅读有关SVM的公式与统计学习理论之间的联系的信息,但高级摘要是SVM不仅找到了一个分离的超平面,而且还找到了一个使余量最大化的超平面。
有关SVM的Wikipedia文章非常好,并且提供了指向正则化,参数搜索和许多其他重要主题的出色链接。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句