小編給大家分享一下tensorflow怎么獲取checkpoint中的變量列表,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
方式1:靜態獲取,通過直接解析checkpoint文件獲取變量名及變量值
通過
reader = tf.train.NewCheckpointReader(model_path)
或者通過:
from tensorflow.python import pywrap_tensorflow reader = pywrap_tensorflow.NewCheckpointReader(model_path)
代碼:
model_path = "./checkpoints/model.ckpt-75000" ## 下面兩個reader作用等價 #reader = pywrap_tensorflow.NewCheckpointReader(model_path) reader = tf.train.NewCheckpointReader(model_path) ## 用reader獲取變量字典,key是變量名,value是變量的shape var_to_shape_map = reader.get_variable_to_shape_map() for var_name in var_to_shape_map.keys(): #用reader獲取變量值 var_value = reader.get_tensor(var_name) print("var_name",var_name) print("var_value",var_value)
方式2:動態獲取,先加載checkpoint模型,然后用graph.get_tensor_by_name()獲取變量值
代碼 (注意:要先在腳本中構建model中對應的變量及scope):
model_path = "./checkpoints/model.ckpt-75000" config = tf.ConfigProto() config.gpu_options.allow_growth = True with tf.Session(config=config) as sess: ## 獲取待加載的變量列表 trainable_vars = tf.trainable_variables() g_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope="generator") d_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope='discriminator') flow_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope='flow_net') var_restore = g_vars + d_vars ## 僅加載目標變量 loader = tf.train.Saver(var_restore) loader.restore(sess,model_path) ## 顯示加載的變量值 graph = tf.get_default_graph() for var in var_restore: tensor = graph.get_tensor_by_name(var.name) print("=======變量名=======",tensor) print("-------變量值-------",sess.run(tensor))
以上是“tensorflow怎么獲取checkpoint中的變量列表”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。