畳み込みニューラル ネットワークのパラメーターを変更する

ヒエウ・トラン・チュン

私は CNN を練習しています。MNISTデータセットのトレーニングに関するいくつかの論文を読みました.CNNを使用します.画像のサイズは28x28で、アーキテクチャ5層を使用します:input>conv1-maxpool1>conv2-maxpool2>full connected>output

Convolutional Layer #1
- Computes 32 features using a 5x5 filter with ReLU activation.
- Padding is added to preserve width and height.
- Input Tensor Shape: [batch_size, 28, 28, 1]
- Output Tensor Shape: [batch_size, 28, 28, 32] 
Pooling Layer #1
- First max pooling layer with a 2x2 filter and stride of 2
- Input Tensor Shape: [batch_size, 28, 28, 32]
- Output Tensor Shape: [batch_size, 14, 14, 32] 
Convolutional Layer #2
- Computes 64 features using a 5x5 filter.
- Padding is added to preserve width and height.
- Input Tensor Shape: [batch_size, 14, 14, 32]
- Output Tensor Shape: [batch_size, 14, 14, 64] 
Pooling Layer #2
- Second max pooling layer with a 2x2 filter and stride of 2
- Input Tensor Shape: [batch_size, 14, 14, 64]
- Output Tensor Shape: [batch_size, 7, 7, 64] 
Flatten tensor into a batch of vectors
- Input Tensor Shape: [batch_size, 7, 7, 64]
- Output Tensor Shape: [batch_size, 7 * 7 * 64] 
Fully Connected Layer
- Densely connected layer with 1024 neurons
- Input Tensor Shape: [batch_size, 7 * 7 * 64]
- Output Tensor Shape: [batch_size, 1024] Output layer
- Input Tensor Shape: [batch_size, 1024]
- Output Tensor Shape: [batch_size, 10]

conv1 では、1 つの入力で 5x5 フィルターを使用して 32 の特徴を計算し、conv2 では conv1 からの 32 の入力で同じフィルターを使用して 64 の特徴を計算します。32、64、2x2 フィルタなどのパラメータは何に基づいて選択されますか? それらは画像のサイズに基づいていますか?

画像のサイズが 128x128 などの 28x28 より大きい場合。5 レイヤー以上のレイヤー数を増やす必要がありますか? 上記のパラメータは、他のサイズの画像でどのように変更されますか?

よろしくお願いします

トラウシュ

32、64、2x2 フィルタなどのパラメータは何に基づいて選択されますか? それらは画像のサイズに基づいていますか?

あなたが言及したパラメーター (32、64、2x2) は、畳み込み層のフィルター数とフィルター サイズです。これらは、モデルをトレーニングするときに選択および調整できるハイパーパラメータです。データセット、アプリケーション、およびモデルのパフォーマンスに応じて、それらを制御できます。

多くのフィルターでは、モデルが学習する機能の数を制御するために使用します。モデルでは、maxpooling レイヤーの後にフィルター番号が 32 から 64 に増加します。2x2 フィルターを使用した Maxpooling レイヤーは、フィーチャの数を半分に減らします。また、フィルターの数を 2 倍にすることで、モデル内の同じ数の特徴が維持されます。慣例では、2x2 の maxpooling レイヤーの後、フィルター番号はこの理由で 2 倍になります。

また、フィルター サイズについては、maxpooling レイヤーの場合、フィーチャ リダクションのサイズを決定します。畳み込み層の場合、入力画像がどの程度詳細に学習されるかを決定します。たとえば、小さなピクセルや特徴によってオブジェクトが異なる画像を処理しようとしている場合は、3x3 や 5x5 などの小さなフィルター サイズを選択します。フィルター サイズが大きい場合はその逆です。

これらのハイパーパラメータを理解する 1 つの方法は、これらがモデルの学習にどのように影響するかを理解することであり、それぞれの場合に応じてそれらを制御する方法を知ることができます。そして、別の方法は、これらが他の人が使用するモデルにどのように設定されているかを調べることです。maxpooling レイヤーの後にフィルター番号が増えるなどの規則が見つかる場合があります。

画像のサイズが 128x128 などの 28x28 より大きい場合。5 レイヤー以上のレイヤー数を増やす必要がありますか? 上記のパラメータは、他のサイズの画像でどのように変更されますか?

レイヤーについては、レイヤーが多いほどモデルが深くなり、パラメーターが増えます。これは、モデルがより複雑になり、画像の特徴についてさらに学習できるようになることを意味します。したがって、深いアーキテクチャを持つことは、大きな解像度で画像を学習するのに役立ちます。解像度が高いということは、学ぶべき機能がたくさんあることを意味するからです。ただし、これも場合によって異なります。これに対する良いアプローチは、レイヤーの少ないシンプルなモデルから始めて、モデルに利益をもたらしながら徐々にレイヤーを増やすことです。

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

追加パラメータを使用した畳み込みニューラルネットワーク

分類Dev

畳み込みニューラルネットワークの理解の問題

分類Dev

畳み込みニューラルネットワークのパラメーターの数を計算する方法は?

分類Dev

Keras(Tensorflow)畳み込みニューラルネットワークをPyTorch畳み込みネットワークに変換しますか?

分類Dev

畳み込みニューラルネットワークの次元

分類Dev

畳み込みニューラルネットワーク(CNN)の入力形状

分類Dev

畳み込みニューラルネットワークの損失

分類Dev

openCVを用いた畳み込みニューラルネットワーク

分類Dev

畳み込みニューラルネットワークのパラメーター数を計算する方法は?

分類Dev

畳み込みニューラルネットワークのパラメーター数を計算する方法は?

分類Dev

畳み込みニューラルネットワークのMACの数を計算する式?

分類Dev

畳み込みニューラルネットワークで畳み込み層の後に活性化関数を使用するのはなぜですか?

分類Dev

畳み込みニューラルネットワークを実装するためのKeras

分類Dev

畳み込みニューラルネットワークでGPUの使用を改善する方法は?

分類Dev

画像分類のための畳み込みニューラルネットワークのパラメータをどのように決定しますか?

分類Dev

畳み込みニューラルネットワークの特徴マップのフィルター

分類Dev

畳み込みニューラルネットワークにおけるハイパーパラメータの最適化

分類Dev

畳み込みニューラルネットワークでのフィルターサイズの縮小

分類Dev

非画像入力で畳み込みニューラルネットワークを使用する

分類Dev

畳み込みニューラルネットワークの出力は何を意味しますか

分類Dev

固定ガボールフィルター畳み込みニューラルネットワーク

分類Dev

畳み込みニューラルネットワークでのトレーニングとテスト

分類Dev

畳み込みニューラルネットワークの重みと出力の値

分類Dev

出力ボリュームのサイズ(畳み込みニューラルネットワーク)

分類Dev

畳み込みニューラルネットワークの組み合わせ

分類Dev

畳み込みニューラルネットワークの画像の次元はどうあるべきか

分類Dev

畳み込みニューラルネットワークにおける一定のバイアス

分類Dev

畳み込みニューラルネットワークの深さとは何ですか?

分類Dev

畳み込みニューラルネットワークの深さとは何ですか?

Related 関連記事

  1. 1

    追加パラメータを使用した畳み込みニューラルネットワーク

  2. 2

    畳み込みニューラルネットワークの理解の問題

  3. 3

    畳み込みニューラルネットワークのパラメーターの数を計算する方法は?

  4. 4

    Keras(Tensorflow)畳み込みニューラルネットワークをPyTorch畳み込みネットワークに変換しますか?

  5. 5

    畳み込みニューラルネットワークの次元

  6. 6

    畳み込みニューラルネットワーク(CNN)の入力形状

  7. 7

    畳み込みニューラルネットワークの損失

  8. 8

    openCVを用いた畳み込みニューラルネットワーク

  9. 9

    畳み込みニューラルネットワークのパラメーター数を計算する方法は?

  10. 10

    畳み込みニューラルネットワークのパラメーター数を計算する方法は?

  11. 11

    畳み込みニューラルネットワークのMACの数を計算する式?

  12. 12

    畳み込みニューラルネットワークで畳み込み層の後に活性化関数を使用するのはなぜですか?

  13. 13

    畳み込みニューラルネットワークを実装するためのKeras

  14. 14

    畳み込みニューラルネットワークでGPUの使用を改善する方法は?

  15. 15

    画像分類のための畳み込みニューラルネットワークのパラメータをどのように決定しますか?

  16. 16

    畳み込みニューラルネットワークの特徴マップのフィルター

  17. 17

    畳み込みニューラルネットワークにおけるハイパーパラメータの最適化

  18. 18

    畳み込みニューラルネットワークでのフィルターサイズの縮小

  19. 19

    非画像入力で畳み込みニューラルネットワークを使用する

  20. 20

    畳み込みニューラルネットワークの出力は何を意味しますか

  21. 21

    固定ガボールフィルター畳み込みニューラルネットワーク

  22. 22

    畳み込みニューラルネットワークでのトレーニングとテスト

  23. 23

    畳み込みニューラルネットワークの重みと出力の値

  24. 24

    出力ボリュームのサイズ(畳み込みニューラルネットワーク)

  25. 25

    畳み込みニューラルネットワークの組み合わせ

  26. 26

    畳み込みニューラルネットワークの画像の次元はどうあるべきか

  27. 27

    畳み込みニューラルネットワークにおける一定のバイアス

  28. 28

    畳み込みニューラルネットワークの深さとは何ですか?

  29. 29

    畳み込みニューラルネットワークの深さとは何ですか?

ホットタグ

アーカイブ