TimeDistributed(BatchNormalization)与BatchNormalization

安迪

BatchNormalization和TimeDistributed(BatchNormalization)对顺序数据(例如视频)是否具有相同的影响?如果没有,有什么区别?

Shubham Panchal

tf.keras.layers.TimeDistributed的文档中,您会注意到,

>> inputs = tf.keras.Input(shape=(10, 128, 128, 3)) 
>> conv_2d_layer = tf.keras.layers.Conv2D(64, (3, 3)) 
>> outputs = tf.keras.layers.TimeDistributed(conv_2d_layer)(inputs) 
>> outputs.shape 

基本上,包裹的图层TimeDistributed将应用于每个时间步。意思是,在上面的代码示例中,Conv2D一层位于所有10个时间步的下方。同样适用于BatchNormalization

取而代之的TimeDistributed层,如果我们采用一种BatchNormalization直接层,均值和方差会被计算为所有的10个时间步作为一个整体。BatchNormalization包裹在TimeDistributed一层中的将计算一批形状(( 1 , 128 , 128 , 3 )即每个时间步长)的均值和方差

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

BatchNormalization如何处理示例?

来自分类Dev

ValueError:预期ndim = 3,替换BatchNormalization后找到ndim = 2

来自分类Dev

SpatialDropout2D,BatchNormalization和激活函数的正确顺序?

来自分类Dev

Keras的BatchNormalization和PyTorch的BatchNorm2d之间的区别?

来自分类Dev

如何将BatchNormalization应用于Keras LSTM的输入?

来自分类Dev

BatchNormalization是否算作网络中的一层?

来自分类Dev

关于在Keras中设置激活和BatchNormalization的方式

来自分类Dev

如何将 BatchNormalization 与 tensorflow 一起使用?

来自分类Dev

Keras BatchNormalization,样本明智的规范化到底是什么?

来自分类Dev

如何在自定义训练循环中使用tf.keras.layers.BatchNormalization()?

来自分类Dev

为什么tf.keras BatchNormalization导致GAN产生废话和准确性?

来自分类Dev

keras.layers.BatchNormalization()中的第一个轴是0还是1?

来自分类Dev

Keras BatchNormalization,样本明智的规范化到底是什么?

来自分类Dev

ValueError:使用来自 Keras 的 BatchNormalization 层的序列设置数组元素

来自分类Dev

当轴 = 0 时,Keras BatchNormalization 仅适用于恒定批量暗淡?

来自分类Dev

在 Keras 中使用 TimeDistributed 和循环层

来自分类常见问题

在Keras中,TimeDistributed层的作用是什么?

来自分类Dev

在Keras(深度学习库)中,RepeatVector + TimeDistributed =错误?

来自分类Dev

如何在 CNN 块上应用 TimeDistributed 层?

来自分类Dev

在TimeDistributed层内正确使用keras SpatialDropout2D-CNN LSTM网络

来自分类Dev

如何使用TimeDistributed层来预测动态长度序列?PYTHON 3

来自分类Dev

如何不在 Keras 中输出带有“TimeDistributed”层的序列?

来自分类Dev

为什么 Keras 序列到序列教程没有提到 TimeDistributed 层包装器?

来自分类Dev

在 Keras 中将 TimeDistributed 应用于 InceptionResnetV2 时出错

来自分类Dev

GRU (return_sequences=True) 层之后的 TimeDistributed Dense Layer 导致维度错误

来自分类Dev

合并Kinvey中的用户

来自分类Dev

PostgreSQL:有效地将JSON数组拆分为行

来自分类Dev

是否可以在UITextField中设置较大的空间

来自分类Dev

从git bisect错误中恢复更有针对性吗?

Related 相关文章

  1. 1

    BatchNormalization如何处理示例?

  2. 2

    ValueError:预期ndim = 3,替换BatchNormalization后找到ndim = 2

  3. 3

    SpatialDropout2D,BatchNormalization和激活函数的正确顺序?

  4. 4

    Keras的BatchNormalization和PyTorch的BatchNorm2d之间的区别?

  5. 5

    如何将BatchNormalization应用于Keras LSTM的输入?

  6. 6

    BatchNormalization是否算作网络中的一层?

  7. 7

    关于在Keras中设置激活和BatchNormalization的方式

  8. 8

    如何将 BatchNormalization 与 tensorflow 一起使用?

  9. 9

    Keras BatchNormalization,样本明智的规范化到底是什么?

  10. 10

    如何在自定义训练循环中使用tf.keras.layers.BatchNormalization()?

  11. 11

    为什么tf.keras BatchNormalization导致GAN产生废话和准确性?

  12. 12

    keras.layers.BatchNormalization()中的第一个轴是0还是1?

  13. 13

    Keras BatchNormalization,样本明智的规范化到底是什么?

  14. 14

    ValueError:使用来自 Keras 的 BatchNormalization 层的序列设置数组元素

  15. 15

    当轴 = 0 时,Keras BatchNormalization 仅适用于恒定批量暗淡?

  16. 16

    在 Keras 中使用 TimeDistributed 和循环层

  17. 17

    在Keras中,TimeDistributed层的作用是什么?

  18. 18

    在Keras(深度学习库)中,RepeatVector + TimeDistributed =错误?

  19. 19

    如何在 CNN 块上应用 TimeDistributed 层?

  20. 20

    在TimeDistributed层内正确使用keras SpatialDropout2D-CNN LSTM网络

  21. 21

    如何使用TimeDistributed层来预测动态长度序列?PYTHON 3

  22. 22

    如何不在 Keras 中输出带有“TimeDistributed”层的序列?

  23. 23

    为什么 Keras 序列到序列教程没有提到 TimeDistributed 层包装器?

  24. 24

    在 Keras 中将 TimeDistributed 应用于 InceptionResnetV2 时出错

  25. 25

    GRU (return_sequences=True) 层之后的 TimeDistributed Dense Layer 导致维度错误

  26. 26

    合并Kinvey中的用户

  27. 27

    PostgreSQL:有效地将JSON数组拆分为行

  28. 28

    是否可以在UITextField中设置较大的空间

  29. 29

    从git bisect错误中恢复更有针对性吗?

热门标签

归档