我正在阅读一篇论文,当时该论文的导师J. Welbl建议将卷积神经网络与决策树进行合并,网址为http://hci.iwr.uni-heidelberg.de/publications/mip/techrep/welbl_14_casting.pdf。这里是上面提到的论文的照片:
这让我开始思考,我无法回答这两种方法之间的区别。由于在CNN中,反向传播和梯度下降用于训练决策,因此也可以很容易地将其应用于决策树,因此输出应相同?
我是对还是完全错了?
实际上,决策树和CNN几乎没有共同点。这些模型的构建方式(特别是您不通过梯度下降训练DT,它们不能表示要素之间的线性关系,等等...),经过训练且具有一般特征,完全不同。您可以简单地将DT“转换”为神经网络(但不能相反!),但是您可以(几乎)使用任何模型来实现,但这并不意味着所有内容都是神经网络。这仅显示了神经网络的总体模糊程度。
现在更多细节。首先,论文谈论的是ANN(人工神经网络),而不是CNN(卷积神经网络)。其次-就可计算性而言,人工神经网络是如此笼统,您可以将每个非循环/循环计算都表示为人工神经网络。此外,一旦进入递归网络,您实际上可以证明它们已经完成了图灵化(因此,每种算法都可以表示为RNN)。唯一缺少的是为什么。通常,这样做是没有意义的。作者在这里只是声称,他们可以进一步微调以ANN表示的RF,并且说实话,所提供的结果令人信服(因为忘记了RF,您就将RF变得极其简单,并行化容易,超参数数量少,易于实现)。使用,依此类推)。特别是-您可以通过多种方式微调RF,并且显然可以通过拟合下一个超参数(它们可以这样做)并对其进行验证-您将提高得分。但是,正如我所说的,这里显示的内容没有深度(并且肯定没有暗示RF是神经网络:-))-您可以考虑将任何非循环/递归模型称为ANN,但这并不意味着特定模型(例如DT)是ANN。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句