keras:畳み込みレイヤーの重みをブロックする方法

マックス・ティトコフ

ここに、Keras用のGoogleNetモデルがあります。ネットワークの個々の層の変更をブロックするための可能な方法はありますか?事前トレーニング済みモデルの最初の2つのレイヤーが変更されないようにブロックしたいと思います。

indraforyou

「個々のレイヤーの変更をブロックする」ことにより、これらのレイヤーをトレーニングしたくない、つまり、ロードされた重みを変更したくないと想定しています(以前のトレーニングで学習した可能性があります)。

その場合trainable=False、レイヤーに渡すことができ、パラメーターはトレーニング更新ルールに使用されません。

例:

from keras.models import Sequential
from keras.layers import Dense, Activation

model = Sequential([
    Dense(32, input_dim=100),
    Dense(output_dim=10),
    Activation('sigmoid'),
])

model.summary()

model2 = Sequential([
    Dense(32, input_dim=100,trainable=False),
    Dense(output_dim=10),
    Activation('sigmoid'),
])

model2.summary()

2番目のモデルのモデルの概要で、パラメーターが訓練不可能なものとしてカウントされていることがわかります。

____________________________________________________________________________________________________
Layer (type)                     Output Shape          Param #     Connected to                     
====================================================================================================
dense_1 (Dense)                  (None, 32)            3232        dense_input_1[0][0]              
____________________________________________________________________________________________________
dense_2 (Dense)                  (None, 10)            330         dense_1[0][0]                    
____________________________________________________________________________________________________
activation_1 (Activation)        (None, 10)            0           dense_2[0][0]                    
====================================================================================================
Total params: 3,562
Trainable params: 3,562
Non-trainable params: 0
____________________________________________________________________________________________________
____________________________________________________________________________________________________
Layer (type)                     Output Shape          Param #     Connected to                     
====================================================================================================
dense_3 (Dense)                  (None, 32)            3232        dense_input_2[0][0]              
____________________________________________________________________________________________________
dense_4 (Dense)                  (None, 10)            330         dense_3[0][0]                    
____________________________________________________________________________________________________
activation_2 (Activation)        (None, 10)            0           dense_4[0][0]                    
====================================================================================================
Total params: 3,562
Trainable params: 330
Non-trainable params: 3,232 

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

Tensorflow Object Detection APIで畳み込みレイヤーの重みを初期化する方法は?

分類Dev

Keras-2つの別々のFullyConnectedレイヤーでCNNの畳み込み部分を共有する方法

分類Dev

2つの異なるkerasレイヤー間にカスタム(畳み込み)接続を作成する方法

分類Dev

Kerasで連結する前に畳み込みレイヤーのサイズを変更する

分類Dev

Kerasレイヤーの重みをリセットする

分類Dev

並列畳み込みレイヤーのkeras実装

分類Dev

畳み込み出力に別のレイヤーを外部から追加する

分類Dev

ケラのレイヤー間で畳み込みカーネルを共有する方法は?

分類Dev

Kerasで畳み込みリカレントネットワーク(CRNN)をモデル化する方法

分類Dev

pytorchの畳み込み重みを正規化する方法は?

分類Dev

特定のレイヤーの重みをコピーする-keras

分類Dev

caffe windowscppで畳み込みレイヤーをカスタマイズする

分類Dev

ネット手術:カフェのカフェモデルファイルの畳み込みレイヤーを再形成する方法は?

分類Dev

ケラスのレイヤーのブロックの重みを共有する

分類Dev

プロトテキストの代わりにC ++で畳み込みレイヤーを初期化する方法は?

分類Dev

2つのKerasレイヤー間のカスタム(畳み込み)接続

分類Dev

畳み込みネットワークでフィルターの重みを共有する

分類Dev

Caffe-同じ畳み込みレイヤー上のデータポイントトレインで3つの画像を作成する方法

分類Dev

畳み込みネットワークの重み?

分類Dev

畳み込みの後に正規化レイヤーが続く場合は、畳み込みからバイアスを削除します

分類Dev

ゲーティング操作用のkerasカスタムレイヤーのカスタム畳み込みとタイプなしオブジェクト

分類Dev

畳み込みニューラルネットワークを実装するためのKeras

分類Dev

畳み込みニューラルネットワークでのレイヤーの次元の設定

分類Dev

ケラスの畳み込みレイヤー

分類Dev

Keras-重みを単一レイヤーに設定する方法

分類Dev

バックプロパゲーションで前のレイヤーの重みを更新する

分類Dev

畳み込みレイヤーの間にプーリングレイヤーを挿入するタイミング

分類Dev

エラーを与えるケラに畳み込みレイヤーを追加する

分類Dev

単語埋め込みレイヤーを理解するkeras

Related 関連記事

  1. 1

    Tensorflow Object Detection APIで畳み込みレイヤーの重みを初期化する方法は?

  2. 2

    Keras-2つの別々のFullyConnectedレイヤーでCNNの畳み込み部分を共有する方法

  3. 3

    2つの異なるkerasレイヤー間にカスタム(畳み込み)接続を作成する方法

  4. 4

    Kerasで連結する前に畳み込みレイヤーのサイズを変更する

  5. 5

    Kerasレイヤーの重みをリセットする

  6. 6

    並列畳み込みレイヤーのkeras実装

  7. 7

    畳み込み出力に別のレイヤーを外部から追加する

  8. 8

    ケラのレイヤー間で畳み込みカーネルを共有する方法は?

  9. 9

    Kerasで畳み込みリカレントネットワーク(CRNN)をモデル化する方法

  10. 10

    pytorchの畳み込み重みを正規化する方法は?

  11. 11

    特定のレイヤーの重みをコピーする-keras

  12. 12

    caffe windowscppで畳み込みレイヤーをカスタマイズする

  13. 13

    ネット手術:カフェのカフェモデルファイルの畳み込みレイヤーを再形成する方法は?

  14. 14

    ケラスのレイヤーのブロックの重みを共有する

  15. 15

    プロトテキストの代わりにC ++で畳み込みレイヤーを初期化する方法は?

  16. 16

    2つのKerasレイヤー間のカスタム(畳み込み)接続

  17. 17

    畳み込みネットワークでフィルターの重みを共有する

  18. 18

    Caffe-同じ畳み込みレイヤー上のデータポイントトレインで3つの画像を作成する方法

  19. 19

    畳み込みネットワークの重み?

  20. 20

    畳み込みの後に正規化レイヤーが続く場合は、畳み込みからバイアスを削除します

  21. 21

    ゲーティング操作用のkerasカスタムレイヤーのカスタム畳み込みとタイプなしオブジェクト

  22. 22

    畳み込みニューラルネットワークを実装するためのKeras

  23. 23

    畳み込みニューラルネットワークでのレイヤーの次元の設定

  24. 24

    ケラスの畳み込みレイヤー

  25. 25

    Keras-重みを単一レイヤーに設定する方法

  26. 26

    バックプロパゲーションで前のレイヤーの重みを更新する

  27. 27

    畳み込みレイヤーの間にプーリングレイヤーを挿入するタイミング

  28. 28

    エラーを与えるケラに畳み込みレイヤーを追加する

  29. 29

    単語埋め込みレイヤーを理解するkeras

ホットタグ

アーカイブ