溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

tf好朋友之tensorboard的使用

發(fā)布時間:2020-07-16 06:31:32 來源:網(wǎng)絡(luò) 閱讀:397 作者:ckllf 欄目:編程語言

  tensorboard常用于更直觀的觀察數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的變化,或者用于觀測已經(jīng)構(gòu)建完成的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。其有助于我們更加方便的去觀測tensorflow神經(jīng)網(wǎng)絡(luò)的搭建情況以及執(zhí)行情況。

  tensorboard相關(guān)函數(shù)及其常用參數(shù)設(shè)置

  常用的tensorboard相關(guān)函數(shù)代碼有七個:

  1 with tf.name_scope(layer_name):

  TensorFlow中的name_scope函數(shù)的作用是創(chuàng)建一個參數(shù)名稱空間。這個空間里包括許多參數(shù),每個參數(shù)有不同的名字,這樣可以更好的管理參數(shù)空間,防止變量命名時產(chǎn)生沖突。

  利用該函數(shù)可以生成相對應(yīng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

  該函數(shù)支持嵌套。

  在該標(biāo)題中,該參數(shù)名稱空間空間的名字為layer_name。

  2 tf.summary.histogram(layer_name+"/biases",biases)

  該函數(shù)用于將變量記錄到tensorboard中。用來顯示直方圖信息。

  一般用來顯示訓(xùn)練過程中變量的分布情況。

  在該標(biāo)題中,biases的直方圖信息被記錄到tensorboard的layer_name+"/biases"中。

  3 tf.summary.scalar(“l(fā)oss”,loss)

  用來進行標(biāo)量信息的可視化與顯示。

  一般在畫loss曲線和accuary曲線時會用到這個函數(shù)。

  在該標(biāo)題中,loss的標(biāo)量信息被記錄到tensorboard的"loss"中。

  4 tf.summary.merge_all()

  將之前定義的所有summary整合在一起。

  tf.summary.scalar、tf.summary.histogram、tf.summary.image在定義的時候,也不會立即執(zhí)行,需要通過sess.run來明確調(diào)用這些函數(shù)。因為,在一個程序中定義的寫日志操作比較多,如果一一調(diào)用,將會十分麻煩,所以Tensorflow提供了tf.summary.merge_all()函數(shù)將所有的summary整理在一起。在TensorFlow程序執(zhí)行的時候,只需要運行這一個操作就可以將代碼中定義的所有寫summary內(nèi)容執(zhí)行一次,從而將所有的summary內(nèi)容寫入。

  5 tf.summary.FileWriter(“l(fā)ogs/”,sess.graph)

  將summary內(nèi)容寫入磁盤文件,F(xiàn)ileWriter類提供了一種用于在給定目錄下創(chuàng)建事件文件的機制,并且將summary數(shù)據(jù)寫入硬盤。

  在該標(biāo)題中,summary數(shù)據(jù)被寫入logs文件夾中。

  6 write.add_summary(result,i)

  該函數(shù)成立前提為:

  write = tf.summary.FileWriter("logs/",sess.graph)

  add_summary是tf.summary.FileWriter父類中的成員函數(shù);添加summary內(nèi)容到事件文件,寫入事件文件。

  在該標(biāo)題中,result是tf.summary.merge_all()執(zhí)行的結(jié)果,i表示世代數(shù)。

  7 tensorboard --logdir=logs

  該函數(shù)用于cmd命令行中。用于生成tensorboard觀測網(wǎng)頁。

  例子

  該例子為手寫體識別例子。

  import tensorflow as tf

  import numpy as np

  from tensorflow.examples.tutorials.mnist import input_data

  mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")

  def add_layer(inputs,in_size,out_size,n_layer,activation_function = None):

  layer_name = 'layer%s'%n_layer

  with tf.name_scope(layer_name):

  with tf.name_scope("Weights"):

  Weights = tf.Variable(tf.random_normal([in_size,out_size]),name = "Weights")

  tf.summary.histogram(layer_name+"/weights",Weights)

  with tf.name_scope("biases"):

  biases = tf.Variable(tf.zeros([1,out_size]) + 0.1,name = "biases")

  tf.summary.histogram(layer_name+"/biases",biases)

  with tf.name_scope("Wx_plus_b"):

  Wx_plus_b = tf.matmul(inputs,Weights) + biases

  tf.summary.histogram(layer_name+"/Wx_plus_b",Wx_plus_b)

  if activation_function == None :

  outputs = Wx_plus_b

  else:無錫人流多少錢 http://www.bhnnk120.com/

  outputs = activation_function(Wx_plus_b)

  tf.summary.histogram(layer_name+"/outputs",outputs)

  return outputs

  def compute_accuracy(x_data,y_data):

  global prediction

  y_pre = sess.run(prediction,feed_dict={xs:x_data})

  correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1)) #判斷是否相等

  accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #賦予float32數(shù)據(jù)類型,求平均。

  result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys}) #執(zhí)行

  return result

  xs = tf.placeholder(tf.float32,[None,784])

  ys = tf.placeholder(tf.float32,[None,10])

  layer1 = add_layer(xs,784,150,"layer1",activation_function = tf.nn.tanh)

  prediction = add_layer(layer1,150,10,"layer2")

  with tf.name_scope("loss"):

  loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=ys,logits = prediction),name = 'loss')

  #label是標(biāo)簽,logits是預(yù)測值,交叉熵。

  tf.summary.scalar("loss",loss)

  train = tf.train.GradientDescentOptimizer(0.5).minimize(loss)

  init = tf.initialize_all_variables()

  merged = tf.summary.merge_all()

  with tf.Session() as sess:

  sess.run(init)

  write = tf.summary.FileWriter("logs/",sess.graph)

  for i in range(5001):

  batch_xs,batch_ys = mnist.train.next_batch(100)

  sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})

  if i % 1000 == 0:

  print("訓(xùn)練%d次的識別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))

  result = sess.run(merged,feed_dict={xs:batch_xs,ys:batch_ys})

  write.add_summary(result,i)

  該例子執(zhí)行結(jié)果為:

  結(jié)構(gòu)圖:

  LOSS值:

  weights,biases的直方圖分布


向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI