単一のDenseレイヤーの周りにTimeDistributedラッパーを追加することに違いはありますか?どちらも同じ数のパラメーター(2,208)と同じ出力形状(なし、6、32)を持っています。目的は、6タイムステップのデータシーケンスを用意し、各タイムステップに高密度レイヤーを通過させたい64個の特徴があることです。
# With TimeDistributed
m = keras.models.Sequential()
m.add(keras.layers.TimeDistributed(keras.layers.Dense(32, activation='relu'), input_shape=(6, 64)))
# No TimeDistributed
m = keras.models.Sequential()
m.add(keras.layers.Dense(32, activation='relu', input_shape=(6, 64)))
いいえ、2つの例に違いはありません。
デフォルトlen(input_shape) = 2
では、Dense
レイヤー(バッチディメンションを除く)の場合、レイヤーを使用する場合と同じように動作しTimeDistributed
ます。
ただし、Flatten
入力をフラット化(レイヤー化)してからDense
レイヤーにフィードすると、話は異なります。
この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。
侵害の場合は、連絡してください[email protected]
コメントを追加