何时在卷积层之间插入池化层

Ziqi Liu

通常,我们将在卷积层之间插入最大池化层。主要思想是“概括” conv中的功能。层。但是很难决定何时插入。我对此有一些疑问:

  1. 如何决定多少次转化 直到我们插入最大池。转化次数过多/转化次数少有什么影响 层数

  2. 因为最大池化将减小尺寸。因此,如果要使用非常深的网络,则不能进行很多maxpooling,否则大小将太小。例如,MNIST仅具有28x28的输入,但是我确实看到有些人使用非常深的网络对其进行实验,因此最终它们的尺寸可能非常小?实际上,当尺寸太小(极端情况下为1x1)时,它就像是一个完全连接的层,似乎对它们进行卷积没有任何意义。

我知道没有黄金角色,但我只想了解其背后的基本直觉,以便在实施网络时可以做出合理的选择。

格言
  1. 没错,没有最好的方法,就像通常没有最佳的过滤器大小或最佳的神经网络体系结构一样。

    VGG-16在池化层之间使用2-3个卷积层(下图),VGG-19最多使用4个层,...

    vgg-16

    ..和GoogleNet在maxpooling层之间(有时与之并行)应用了令人难以置信的卷积(图像打击)

    谷歌网

    Each new layer, obviously, increases the network flexibility, so that it can approximate the more complex target functions. On the other hand, it requires more computation for training, however it's common to save computation using the 1x1 convolution trick. How much flexibility does your network need? Greatly depends on the data, but usually 2-3 layers is flexible enough for most applications, and additional layers don't affect the performance. There's no better strategy than to cross-validate models of various depth. (The pictures are from this blog-post)

  2. 这是一个已知的问题,在此我想提及一种解决过度采样的特殊技术:分数池化想法是对层中的不同神经元应用不同大小的感受野,以任何比例缩小图像:90%,75%,66%等。

    fmp

    这是使深层网络特别是对于小图像(如MNIST数字)的更深网络的一种方法,该网络显示出非常好的准确性(0.32%的测试误差)。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

何时在卷积层之间插入池化层

来自分类Dev

是否有确定卷积层和池化层内核大小的标准?

来自分类Dev

keras中全局池化层与(普通)池化层之间的差异

来自分类Dev

池化层和先前卷积层的深度应该相同。但它不一样,请让我知道解决方案

来自分类Dev

合并层或卷积层之后的激活功能?

来自分类Dev

在张量流中可视化卷积层的输出

来自分类Dev

并行卷积层的keras实现

来自分类Dev

如何在Keras中实现平均池化层

来自分类Dev

如何在TensorFlow中编写新的池化层?

来自分类Dev

如果卷积后面有归一化层,则消除卷积中的偏差

来自分类Dev

Torch中的卷积层(即nn.SpatialConvolution`)和Pytorch中的卷积层(即torch.nn.Conv2d)之间有什么区别

来自分类Dev

神经网络隐藏层与卷积隐藏层直觉

来自分类Dev

关于将卷积层实现为全连接层的困惑

来自分类Dev

子采样层和卷积层的区别(Convolution Neural Networks)

来自分类Dev

TensorFlow中的卷积层是否支持辍学?

来自分类Dev

keras如何管理卷积层的权重?

来自分类Dev

在CPU上使用卷积层时出错

来自分类Dev

了解奇怪的YOLO卷积层输出大小

来自分类Dev

设置卷积层的过滤器权重

来自分类Dev

了解卷积层的MACC操作计数的问题

来自分类Dev

关于深度学习中卷积层的后退

来自分类Dev

使用keras python输出卷积层

来自分类Dev

tensorflow 如何连接链接卷积层的维度?

来自分类Dev

在神经网络中使用卷积层

来自分类Dev

Python 中使用 Numpy 的卷积层

来自分类Dev

使用 keras 在各个层上应用卷积

来自分类Dev

可视化theano卷积MLP中每一层的输出

来自分类Dev

在keras中将CNN与LSTM一起使用时,池化层是否是强制性的?

来自分类Dev

无法插入顺序模型层

Related 相关文章

  1. 1

    何时在卷积层之间插入池化层

  2. 2

    是否有确定卷积层和池化层内核大小的标准?

  3. 3

    keras中全局池化层与(普通)池化层之间的差异

  4. 4

    池化层和先前卷积层的深度应该相同。但它不一样,请让我知道解决方案

  5. 5

    合并层或卷积层之后的激活功能?

  6. 6

    在张量流中可视化卷积层的输出

  7. 7

    并行卷积层的keras实现

  8. 8

    如何在Keras中实现平均池化层

  9. 9

    如何在TensorFlow中编写新的池化层?

  10. 10

    如果卷积后面有归一化层,则消除卷积中的偏差

  11. 11

    Torch中的卷积层(即nn.SpatialConvolution`)和Pytorch中的卷积层(即torch.nn.Conv2d)之间有什么区别

  12. 12

    神经网络隐藏层与卷积隐藏层直觉

  13. 13

    关于将卷积层实现为全连接层的困惑

  14. 14

    子采样层和卷积层的区别(Convolution Neural Networks)

  15. 15

    TensorFlow中的卷积层是否支持辍学?

  16. 16

    keras如何管理卷积层的权重?

  17. 17

    在CPU上使用卷积层时出错

  18. 18

    了解奇怪的YOLO卷积层输出大小

  19. 19

    设置卷积层的过滤器权重

  20. 20

    了解卷积层的MACC操作计数的问题

  21. 21

    关于深度学习中卷积层的后退

  22. 22

    使用keras python输出卷积层

  23. 23

    tensorflow 如何连接链接卷积层的维度?

  24. 24

    在神经网络中使用卷积层

  25. 25

    Python 中使用 Numpy 的卷积层

  26. 26

    使用 keras 在各个层上应用卷积

  27. 27

    可视化theano卷积MLP中每一层的输出

  28. 28

    在keras中将CNN与LSTM一起使用时,池化层是否是强制性的?

  29. 29

    无法插入顺序模型层

热门标签

归档