了解线性分类SVM

克劳德

我试图了解线性分类SVM的工作原理(如用于HOG人检测的SVM一样)。我觉得我缺少必要的部分,而且恐怕找不到清晰的描述来更好地理解它。我知道有现成的实现,最后我可能最终会使用其中一种,但是我想了解自己在做什么。

据我了解,SVM接受了许多特征向量和正确分类的训练。训练后,SVM被完全定义为一组超平面(维数为特征向量的长度),通常为极小数。我希望(天真吗?)我训练有素的SVM是这样的:

ax >=b: 0
ax < b: 1

其中x是特征向量和ax = b超平面。在这里我遇到了问题,因为:

  1. 我不明白在上述论文中他们如何获得经过培训的1.7GB SVM。我的类似于(64位/浮点数*(特征向量的长度+ 1))。
  2. 使用此SVM进行分类很简单,只有一个点积和一个比较。即使我似乎找不到太多有关使用SVM进行匹配需要多长时间的信息,但人们似乎仍在寻找快速实现。

我敢肯定,在某个时候我会误解所读的内容,但是我想知道我的想法出了什么问题。我猜我只是陷入了错误的思维定势,因为我对SVM的了解越多,上面描述的内容就越多,这是不对的。

伊万

看起来在论文中他们需要1.7 GB的RAM来训练分类器。为此,他们必须加载约14000个64x128 RGB图像补丁。当使用整数存储它们时,该文件的大小约为1.5 GB。

正确计算分类器后,只需一个权重向量即可检查给定样本在超平面的哪一侧。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章