tf.Variableをtf.constantまたはnumpy配列で初期化する方法は?

lamo_738

私は初期化しようとしていますtf.Variable()tf.InteractiveSession()個別のnumpyファイルである事前トレーニング済みの重みがすでにいくつかあります。これらのnumpy値で変数を効果的に初期化するにはどうすればよいですか?

私は次のオプションを実行しました:

  1. 使用する tf.assign()
  2. 作成sess.run()時に直接使用するtf.Variable()

値が正しく初期化されていないようです。以下は私が試したいくつかのコードです。どちらが正しいか教えてください。

def read_numpy(file):
    return np.fromfile(file,dtype='f')

def build_network():
    with tf.get_default_graph().as_default():
        x = tf.Variable(tf.constant(read_numpy('foo.npy')),name='var1')
        sess = tf.get_default_session()
        with sess.as_default():
            sess.run(tf.global_variables_initializer())

sess = tf.InteractiveSession()
with sess.as_default():
    build_network()

これは正しい方法ですか?sessionオブジェクトを印刷しましたが、これは全体で使用されているのと同じセッションです。

編集:現在、使用sess.run(tf.global_variables_initializer())はランダム初期化操作を呼び出しているようです

ウラド

tf.Variable() numpy配列を初期値として受け入れます。

import tensorflow as tf
import numpy as np

init = np.ones((2, 2))
x = tf.Variable(init) # <-- set initial value to assign to a variable

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer()) # <-- this will assign the init value
    print(x.eval())
# [[1. 1.]
#  [1. 1.]]

したがって、numpy配列を使用して初期化するだけで、最初にテンソルに変換する必要はありません。

または、tf.Variable.load()セッションコンテキスト内でnumpy配列から変数に値を割り当てるために使用することもできます。

import tensorflow as tf
import numpy as np

x = tf.Variable(tf.zeros((2, 2)))

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    init = np.ones((2, 2))
    x.load(init)
    print(x.eval())
# [[1. 1.]
#  [1. 1.]]

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

tf.layers変数をtf.name_scope / tf.variable_scopeに配置する方法は?

分類Dev

TensorFlow2.0でtf.Lambdaとtf.Variableを使用する方法

分類Dev

tf.zeros()はtf.get_variable()を返しますか?

分類Dev

2次元のtf.Variableでtf.scatter_updateを使用する

分類Dev

tf.get_variableで正則化引数を使用する方法は?

分類Dev

TF2.0の `tf.Module`で変数を初期化する方法

分類Dev

tf.glorot_uniform_initializer()をtf.Variable(0 not get_variable()に渡す方法

分類Dev

tf TensorからNumpy配列を取得する方法は?

分類Dev

@ tf.functionで装飾された関数内のtf.data.Dataset上のforループを使用して、tf.Variableを操作して返す方法は?

分類Dev

tf.Variable Python / TensorFlowの初期値を設定します

分類Dev

tf.int64をtf.float32に変換する方法は?

分類Dev

tf.int64をtf.float32に変換する方法は?

分類Dev

tf.Variable()とtf.get_variable()を使用した場合のさまざまな結果

分類Dev

`tf.keras.Model.compile`はTF2.0で何をしますか?

分類Dev

EstimatorSessionRunHookでtf.Variable値を変更する

分類Dev

tf.constantとtf.Variableの違い(trainable = False)

分類Dev

tf.data.Iterator.get_next():tf.while_loopを進める方法は?

分類Dev

_tf_sess()を理解する

分類Dev

tf.Variableが大文字で、tf.constantが小文字であるのはなぜですか?

分類Dev

tf.gradientsはtf.condを通過しますか?

分類Dev

tf.Softmaxを使いたい

分類Dev

Python tf-idf:tf-idf行列を更新する高速な方法

分類Dev

`tf.constant`を整数と比較する

分類Dev

tf.function内でtf.keras.model.predictを使用する

分類Dev

tf.constantとtf.convert_to_tensorの違いは何ですか

分類Dev

別の変数のinitialized_valueから初期化されたtf.variable_scope(name)内に変数を作成する

分類Dev

tf.placeholderを割り当てる方法は?

分類Dev

TF 2.0のtf.GradientTapeはtf.gradientsと同等ですか?

分類Dev

関数「tf.keras.layers.prelu」を初期化する方法

Related 関連記事

  1. 1

    tf.layers変数をtf.name_scope / tf.variable_scopeに配置する方法は?

  2. 2

    TensorFlow2.0でtf.Lambdaとtf.Variableを使用する方法

  3. 3

    tf.zeros()はtf.get_variable()を返しますか?

  4. 4

    2次元のtf.Variableでtf.scatter_updateを使用する

  5. 5

    tf.get_variableで正則化引数を使用する方法は?

  6. 6

    TF2.0の `tf.Module`で変数を初期化する方法

  7. 7

    tf.glorot_uniform_initializer()をtf.Variable(0 not get_variable()に渡す方法

  8. 8

    tf TensorからNumpy配列を取得する方法は?

  9. 9

    @ tf.functionで装飾された関数内のtf.data.Dataset上のforループを使用して、tf.Variableを操作して返す方法は?

  10. 10

    tf.Variable Python / TensorFlowの初期値を設定します

  11. 11

    tf.int64をtf.float32に変換する方法は?

  12. 12

    tf.int64をtf.float32に変換する方法は?

  13. 13

    tf.Variable()とtf.get_variable()を使用した場合のさまざまな結果

  14. 14

    `tf.keras.Model.compile`はTF2.0で何をしますか?

  15. 15

    EstimatorSessionRunHookでtf.Variable値を変更する

  16. 16

    tf.constantとtf.Variableの違い(trainable = False)

  17. 17

    tf.data.Iterator.get_next():tf.while_loopを進める方法は?

  18. 18

    _tf_sess()を理解する

  19. 19

    tf.Variableが大文字で、tf.constantが小文字であるのはなぜですか?

  20. 20

    tf.gradientsはtf.condを通過しますか?

  21. 21

    tf.Softmaxを使いたい

  22. 22

    Python tf-idf:tf-idf行列を更新する高速な方法

  23. 23

    `tf.constant`を整数と比較する

  24. 24

    tf.function内でtf.keras.model.predictを使用する

  25. 25

    tf.constantとtf.convert_to_tensorの違いは何ですか

  26. 26

    別の変数のinitialized_valueから初期化されたtf.variable_scope(name)内に変数を作成する

  27. 27

    tf.placeholderを割り当てる方法は?

  28. 28

    TF 2.0のtf.GradientTapeはtf.gradientsと同等ですか?

  29. 29

    関数「tf.keras.layers.prelu」を初期化する方法

ホットタグ

アーカイブ