ニューラルネットワークのバックプロパゲーションについて質問があります。一部のデータに対してトレーニング済みのDNNがあるとします。次に、破損したデータをNNにフィードし、最初の隠れ層までではなく、入力層までエラーを逆伝播します(つまり、入力ニューロンのデルタを計算します)。エラー項は、「クリーン」ベクトルと「破損」ベクトルの不一致を示していますか?
質問を正しく解釈している場合、2つの入力ベクトルi1 =(a、b、...)とi2 =(c、d、...)があります。次に、2つの対応する出力ベクトルo1 =(v、w、...)とo2 =(x、y、...)があります。
i1は有効なトレーニングデータの一部であり、NNにモデルを教えるために使用されます。これが完了したら、NNを使用して、モデルをi2に正しく適用した場合に、無効なo2と有効な出力の間のデルタを検出しますか?
この場合、すべての有効な入力ケースを使用してNNを通常どおりにトレーニングし、テストケース(既知の破損した出力ベクトルに対応する入力ベクトル)をフィードして、バックプロパゲーションを無効にして結果を収集します。つまり、NNが正しいモデルを学習したら、トレーニングを停止し、「クリーンな」結果を破損した結果と自分で比較するだけです。
注:代わりに、ニューラルネットワークをトレーニングして、他のプロセスの入力に対応する値のセットと、そのプロセスの(破損している可能性のある)出力に対応する値のセットを受け入れ、クリーンとの差を出力として生成することもできます。値と破損した値ですが、自分で減算を行わないようにするためのデータの追加のトレーニングとフレーミングは、おそらく価値がありません。
この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。
侵害の場合は、連絡してください[email protected]
コメントを追加