あなたが示した図に関して、WIマトリックスの各行は単語ベクトルです。(トレーニング後、モデルに「cat」のような単語を要求すると、0からVまでのどのスロットに「cat」が格納されているかが検出され、WIマトリックスのその行が返されます。)
WIは、ランダムな低振幅ベクトルで初期化されます。WOは、トレーニングの開始時にゼロのままになります。トレーニング中、WOとWIのさまざまな行は、バックプロパゲーション修正ナッジを介して繰り返し改善され、ネットワークの出力層が各(コンテキスト)->(単語)トレーニング例をより予測できるようにします。
スキップグラムの場合、この図の入力レイヤーは、単一のコンテキスト入力ワードのワンホットエンコーディングと考えることができます。CBOWの場合、この図の入力レイヤーは、マルチワードコンテキスト内の各ワードのカウントがx i値(ほとんどゼロ(スパース))であると考えることができます。実際には、CBOWでは、各単語がWIで検索され、それらの単語ベクトルが平均化されて、隠れ層のアクティブ化が作成されます。
skip-gramとCBOWはどちらも問題なく機能し、WI内に有用な単語ベクトルを作成します。
この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。
侵害の場合は、連絡してください[email protected]
コメントを追加