您好,登錄后才能下訂單哦!
小編給大家分享一下tensorflow怎么獲取checkpoint中的變量列表,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
方式1:靜態(tài)獲取,通過直接解析checkpoint文件獲取變量名及變量值
通過
reader = tf.train.NewCheckpointReader(model_path)
或者通過:
from tensorflow.python import pywrap_tensorflow reader = pywrap_tensorflow.NewCheckpointReader(model_path)
代碼:
model_path = "./checkpoints/model.ckpt-75000" ## 下面兩個(gè)reader作用等價(jià) #reader = pywrap_tensorflow.NewCheckpointReader(model_path) reader = tf.train.NewCheckpointReader(model_path) ## 用reader獲取變量字典,key是變量名,value是變量的shape var_to_shape_map = reader.get_variable_to_shape_map() for var_name in var_to_shape_map.keys(): #用reader獲取變量值 var_value = reader.get_tensor(var_name) print("var_name",var_name) print("var_value",var_value)
方式2:動(dòng)態(tài)獲取,先加載checkpoint模型,然后用graph.get_tensor_by_name()獲取變量值
代碼 (注意:要先在腳本中構(gòu)建model中對(duì)應(yīng)的變量及scope):
model_path = "./checkpoints/model.ckpt-75000" config = tf.ConfigProto() config.gpu_options.allow_growth = True with tf.Session(config=config) as sess: ## 獲取待加載的變量列表 trainable_vars = tf.trainable_variables() g_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope="generator") d_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope='discriminator') flow_vars = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES,scope='flow_net') var_restore = g_vars + d_vars ## 僅加載目標(biāo)變量 loader = tf.train.Saver(var_restore) loader.restore(sess,model_path) ## 顯示加載的變量值 graph = tf.get_default_graph() for var in var_restore: tensor = graph.get_tensor_by_name(var.name) print("=======變量名=======",tensor) print("-------變量值-------",sess.run(tensor))
以上是“tensorflow怎么獲取checkpoint中的變量列表”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。