您好,登錄后才能下訂單哦!
這篇文章主要講解了“TensorFlow神經(jīng)網(wǎng)絡(luò)創(chuàng)建多層感知機MNIST數(shù)據(jù)集的方法是什么”,文中的講解內(nèi)容簡單清晰,易于學(xué)習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習“TensorFlow神經(jīng)網(wǎng)絡(luò)創(chuàng)建多層感知機MNIST數(shù)據(jù)集的方法是什么”吧!
前面使用TensorFlow實現(xiàn)一個完整的Softmax Regression,并在MNIST數(shù)據(jù)及上取得了約92%的正確率。
前文傳送門: TensorFlow教程Softmax邏輯回歸識別手寫數(shù)字MNIST數(shù)據(jù)集
現(xiàn)在建含一個隱層的神經(jīng)網(wǎng)絡(luò)模型(多層感知機)。
import tensorflow as tf import numpy as np import input_data mnist = input_data.read_data_sets('data/', one_hot=True) n_hidden_1 = 256 n_input = 784 n_classes = 10 # INPUTS AND OUTPUTS x = tf.placeholder(tf.float32, [None, n_input]) # 用placeholder先占地方,樣本個數(shù)不確定為None y = tf.placeholder(tf.float32, [None, n_classes]) # 用placeholder先占地方,樣本個數(shù)不確定為None # NETWORK PARAMETERS weights = { 'w1': tf.Variable(tf.random_normal([n_input, n_hidden_1], stddev=0.1)), 'out': tf.Variable(tf.zeros([n_hidden_1, n_classes])) } biases = { 'b1': tf.Variable(tf.zeros([n_hidden_1])), 'out': tf.Variable(tf.zeros([n_classes])) } print("NETWORK READY") def multilayer_perceptron(_X, _weights, _biases): # 前向傳播,l1、l2每一層后面加relu激活函數(shù) layer_1 = tf.nn.relu(tf.add(tf.matmul(_X, _weights['w1']), _biases['b1'])) # 隱層 return (tf.matmul(layer_1, _weights['out']) + _biases['out']) # 返回輸出層的結(jié)果,得到十個類別的得分值 pred = multilayer_perceptron(x, weights, biases) # 前向傳播的預(yù)測值 cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) # 交叉熵損失函數(shù),參數(shù)分別為預(yù)測值pred和實際label值y,reduce_mean為求平均loss optm = tf.train.GradientDescentOptimizer(0.01).minimize(cost) # 梯度下降優(yōu)化器 corr = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) # tf.equal()對比預(yù)測值的索引和實際label的索引是否一樣,一樣返回True,不一樣返回False accr = tf.reduce_mean(tf.cast(corr, tf.float32)) # 將pred即True或False轉(zhuǎn)換為1或0,并對所有的判斷結(jié)果求均值 init = tf.global_variables_initializer() print("FUNCTIONS READY") # 上面神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)定義好之后,下面定義一些超參數(shù) training_epochs = 100 # 所有樣本迭代100次 batch_size = 100 # 每進行一次迭代選擇100個樣本 display_step = 5 # LAUNCH THE GRAPH sess = tf.Session() # 定義一個Session sess.run(init) # 在sess里run一下初始化操作 # OPTIMIZE for epoch in range(training_epochs): avg_cost = 0. total_batch = int(mnist.train.num_examples/batch_size) # Loop over all batches for i in range(total_batch): batch_xs, batch_ys = mnist.train.next_batch(batch_size) # 逐個batch的去取數(shù)據(jù) sess.run(optm, feed_dict={x: batch_xs, y: batch_ys}) avg_cost += sess.run(cost, feed_dict={x: batch_xs, y: batch_ys})/total_batch # Display logs per epoch step if epoch % display_step == 0: train_acc = sess.run(accr, feed_dict={x: batch_xs, y: batch_ys}) test_acc = sess.run(accr, feed_dict={x: mnist.test.images, y: mnist.test.labels}) print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f TEST ACCURACY: %.3f" % (epoch, training_epochs, avg_cost, train_acc, test_acc)) print("DONE")
迭代100次看下效果,程序運行結(jié)果如下:
Epoch: 095/100 cost: 0.076462782 TRAIN ACCURACY: 0.990 TEST ACCURACY: 0.970
最終,在測試集上準確率達到97%,隨著迭代次數(shù)增加,準確率還會上升。相比之前的Softmax,訓(xùn)練迭代100次我們的誤差率由8%降到了3%,對識別銀行賬單這種精確度要求很高的場景,可以說是飛躍性的提高。而這個提升僅靠增加一個隱層就實現(xiàn)了,可見多層神經(jīng)網(wǎng)絡(luò)的效果有多顯著。
沒有隱含層的Softmax Regression只能直接從圖像的像素點推斷是哪個數(shù)字,而沒有特征抽象的過程。多層神經(jīng)網(wǎng)絡(luò)依靠隱含層,則可以組合出高階特征,比如橫線、豎線、圓圈等,之后可以將這些高階特征或者說組件再組合成數(shù)字,就能實現(xiàn)精準的匹配和分類。
不過,使用全連接神經(jīng)網(wǎng)絡(luò)也是有局限的,即使我們使用很深的網(wǎng)絡(luò),很多的隱藏節(jié)點,很大的迭代次數(shù),也很難在MNIST數(shù)據(jù)集上達到99%以上的準確率。
感謝各位的閱讀,以上就是“TensorFlow神經(jīng)網(wǎng)絡(luò)創(chuàng)建多層感知機MNIST數(shù)據(jù)集的方法是什么”的內(nèi)容了,經(jīng)過本文的學(xué)習后,相信大家對TensorFlow神經(jīng)網(wǎng)絡(luò)創(chuàng)建多層感知機MNIST數(shù)據(jù)集的方法是什么這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。