再トレーニング中にtensorflow.contrib.slimfull_connectedレイヤーの重みとバイアスを初期化するにはどうすればよいですか?

スミットシダナ

テンソルフローグラフを保存してトレーニングした後、次のように別の損失関数を使用して再トレーニングするために復元します。

 import tensorflow as tf
 import numpy as np
 import pyximport
 pyximport.install()
 import math
 import tensorflow.contrib.slim as slim
 raw_data_train = np.loadtxt('all_data/train_all_raw.csv', skiprows = 1, delimiter=',')
 users = (np.unique(raw_data_train[ :, 0]))
 items = (np.unique(raw_data_train[ :, 1]))
 saver = tf.train.import_meta_graph('all_data/my_test_model.meta')

 with tf.Session() as sess:
     tf.global_variables_initializer().run(session=sess)
     saver.restore(sess, tf.train.latest_checkpoint('all_data/'))

     # placeholders
     user_ids = sess.graph.get_tensor_by_name('user_ids:0')
     left_ids = sess.graph.get_tensor_by_name('left_ids:0')

     # variables
     user_latents = sess.graph.get_tensor_by_name('user_latents:0')
     item_latents = sess.graph.get_tensor_by_name('item_latents:0')

     # network was initiall defined as variable_scope "nn" that is why I am retrieving them as "nn/*" in the following line

     weights_0 = sess.graph.get_tensor_by_name('nn/fully_connected/weights:0')
     biases_0 = sess.graph.get_tensor_by_name('nn/fully_connected/biases:0')
     weights_1 = sess.graph.get_tensor_by_name('nn/fully_connected_1/weights:0')
     biases_1 = sess.graph.get_tensor_by_name('nn/fully_connected_1/biases:0')

     # lookups

     user_embeddings = sess.graph.get_tensor_by_name('embedding_user:0')
     item_left_embeddings = sess.graph.get_tensor_by_name('embedding_left:0')


     # dictionary
     fd = {
       user_ids: users,
       left_ids: items,
     }
     left_emb_val, weights_0_val, biases_0_val, weights_1_val, biases_1_val = sess.run([left_emb, weights_0, biases_0, weights_1, biases_1], feed_dict=fd)

     joined_input = tf.concat( [user_embeddings, item_left_embeddings], 1)
     net = slim.fully_connected(inputs=joined_input, num_outputs=64,           weights_initializer = tf.constant_initializer(weights_0_val), biases_initializer=tf.constant_initializer(biases_0_val), activation_fn=tf.nn.relu)
     left_output = slim.fully_connected(inputs=net, num_outputs=1, weights_initializer = tf.constant_initializer(weights_1_val), biases_initializer=tf.constant_initializer(biases_1_val), activation_fn=None)

# ********* below line gives an error *************

     left_output_val = sess.run([left_output], feed_dict=fd)
     print(left_output_val)

上記のコードは、left_output_valを呼び出しての値を計算しようとすると、次のエラーが発生しますsess.run

 FailedPreconditionError (see above for traceback): Attempting to use uninitialized value fully_connected_1/biases
 [[Node: fully_connected_1/biases/read = Identity[T=DT_FLOAT, _class=["loc:@fully_connected_1/biases"], _device="/job:localhost/replica:0/task:0/cpu:0"](fully_connected_1/biases)]]

それは私にとって少し驚きです:

  1. 次の行を使用してすべての変数を初期化しました。

     tf.global_variables_initializer().run(session=sess)
    

    これは、ここで提案されているように、重みとバイアスがこの行で初期化されなかったことが原因である可能性があります:TensorflowでAdadeltaオプティマイザーを使用しているときに初期化されていない値エラー

  2. 私は次の行で重みとバイアスを初期化しています:

    net = slim.fully_connected(inputs=joined_input, num_outputs=64,           weights_initializer = tf.constant_initializer(weights_0_val), biases_initializer=tf.constant_initializer(biases_0_val), activation_fn=tf.nn.relu)
    
    left_output = slim.fully_connected(inputs=net, num_outputs=1, weights_initializer = tf.constant_initializer(weights_1_val), biases_initializer=tf.constant_initializer(biases_1_val), activation_fn=None)
    

    それでも、セッションを実行しての値を計算している間、統一された重みとバイアスのエラーがあります left_output_val

ここで私の問題を解決するためのあらゆる種類のアイデアに感謝します。

マキシム

この密なレイヤーから変数を取得し、手動で初期化できます。

with tf.variable_scope('fully_connected_1', reuse=True):
  weights = tf.get_variable('weights')
  biases = tf.get_variable('biases')

  sess.run([weights.initializer, biases.initializer])

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

Related 関連記事

ホットタグ

アーカイブ