溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

發(fā)布時(shí)間:2021-05-27 14:35:24 來(lái)源:億速云 閱讀:165 作者:小新 欄目:開(kāi)發(fā)技術(shù)

小編給大家分享一下Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

對(duì)于“XOR”大家應(yīng)該都不陌生,我們?cè)诟鞣N課程中都會(huì)遇到,它是一個(gè)數(shù)學(xué)邏輯運(yùn)算符號(hào),在計(jì)算機(jī)中表示為“XOR”,在數(shù)學(xué)中表示為“Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式”,學(xué)名為“異或”,其來(lái)源細(xì)節(jié)就不詳細(xì)表明了,說(shuō)白了就是兩個(gè)a、b兩個(gè)值做異或運(yùn)算,若a=b則結(jié)果為0,反之為1,即“相同為0,不同為1”.

在計(jì)算機(jī)早期發(fā)展中,邏輯運(yùn)算廣泛應(yīng)用于電子管中,這一點(diǎn)如果大家學(xué)習(xí)過(guò)微機(jī)原理應(yīng)該會(huì)比較熟悉,那么在神經(jīng)網(wǎng)絡(luò)中如何實(shí)現(xiàn)它呢,早先我們使用的是感知機(jī),可理解為單層神經(jīng)網(wǎng)絡(luò),只有輸入層和輸出層(在吳恩達(dá)老師的系列教程中曾提到過(guò)這一點(diǎn),關(guān)于神經(jīng)網(wǎng)絡(luò)的層數(shù),至今仍有異議,就是說(shuō)神經(jīng)網(wǎng)絡(luò)的層數(shù)到底包不包括輸入層,現(xiàn)今多數(shù)認(rèn)定是不包括的,我們常說(shuō)的N層神經(jīng)網(wǎng)絡(luò)指的是隱藏層+輸出層),但是感知機(jī)是無(wú)法實(shí)現(xiàn)XOR運(yùn)算的,簡(jiǎn)單來(lái)說(shuō)就是XOR是線性不可分的,由于感知機(jī)是有輸入輸出層,無(wú)法線性劃分XOR區(qū)域,于是后來(lái)就有了使用多層神經(jīng)網(wǎng)絡(luò)來(lái)解決這一問(wèn)題的想法~~

關(guān)于多層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)XOR運(yùn)算可大致這么理解:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

兩個(gè)輸入均有兩個(gè)取值0和1,那么組合起來(lái)就有四種可能,即[0,0]、[0,1]、[1,0]、[1,1],這樣就可以通過(guò)中間的隱藏層進(jìn)行異或運(yùn)算了~

咱們直接步入正題吧,對(duì)于此次試驗(yàn)我們只需要一個(gè)隱藏層即可,關(guān)于神經(jīng)網(wǎng)絡(luò) 的基礎(chǔ)知識(shí)建議大家去看一下吳恩達(dá)大佬的課程,真的很棒,百看不厭,真正的大佬是在認(rèn)定學(xué)生是絕對(duì)小白的前提下去講解的,所以一般人都能聽(tīng)懂~~接下來(lái)的圖純手工操作,可能不是那么準(zhǔn)確,但中心思想是沒(méi)有問(wèn)題的,我們開(kāi)始吧:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

上圖是最基本的神經(jīng)網(wǎng)絡(luò)示意圖,有兩個(gè)輸入x1、x2,一個(gè)隱藏層,只有一個(gè)神經(jīng)元,然后有個(gè)輸出層,這就是最典型的“輸入層+隱藏層+輸出層”的架構(gòu),對(duì)于本題目,我們的輸入和輸出以及整體架構(gòu)如下圖所示:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

輸入量為一個(gè)矩陣,0和0異或結(jié)果為0,0和1異或結(jié)果為1,依次類推,對(duì)應(yīng)我們的目標(biāo)值為[0,1,1,0],最后之所以用約等號(hào)是因?yàn)槲覀兊念A(yù)測(cè)值與目標(biāo)值之間會(huì)有一定的偏差,如果訓(xùn)練的好那么這二者之間是無(wú)限接近的。

我們直接上全部代碼吧,就不分步進(jìn)行了,以為這個(gè)實(shí)驗(yàn)本身難度較低,且代碼注釋很清楚,每一步都很明確,如果大家有什么不理解的可以留言給我,看到必回:

#!/usr/bin/env python 
# -*- coding:utf-8 -*-
 
import numpy as np
import tensorflow as tf
 
#定義輸入值與目標(biāo)值
X=np.array([[0,0],[0,1],[1,0],[1,1]])
Y=np.array([[0],[1],[1],[0]])
 
#定義占位符,從輸入或目標(biāo)中按行取數(shù)據(jù)
x=tf.placeholder(tf.float32,[None,2])
y=tf.placeholder(tf.float32,[None,1])
 
#初始化權(quán)重,使其滿足正態(tài)分布,w1和w2分別為輸入層到隱藏層和隱藏層到輸出層的權(quán)重矩陣
w1=tf.Variable(tf.random_normal([2,2]))
w2=tf.Variable(tf.random_normal([2,1]))
 
#定義b1和b2,分別為隱藏層和輸出層的偏移量
b1=tf.Variable([0.1,0.1])
b2=tf.Variable([0.1])
 
#使用Relu激活函數(shù)得到隱藏層的輸出值
a=tf.nn.relu(tf.matmul(x,w1)+b1)
 
#輸出層不用激活函數(shù),直接獲得其值
out=tf.matmul(a,w2)+b2
 
#定義損失函數(shù)MSE
loss=tf.reduce_mean(tf.square(out-y))
 
#優(yōu)化器選擇Adam
train=tf.train.AdamOptimizer(0.01).minimize(loss)
 
#開(kāi)始訓(xùn)練,迭代1001次(方便后邊的整數(shù)步數(shù)顯示)
with tf.Session() as session:
  session.run(tf.global_variables_initializer()) #初始化變量
  for i in range(1001):
    session.run(train,feed_dict={x:X,y:Y}) #訓(xùn)練模型
    loss_final=session.run(loss,feed_dict={x:X,y:Y}) #獲取損失
    if i%100==0:
      print("step:%d   loss:%2f" % (i,loss_final))
  print("X: %r" % X)
  print("pred_out: %r" % session.run(out,feed_dict={x:X}))

對(duì)照第三張圖片理解代碼更加直觀,我們的隱藏層神經(jīng)元功能就是將輸入值和相應(yīng)權(quán)重做矩陣乘法,然后加上偏移量,最后使用激活函數(shù)進(jìn)行非線性轉(zhuǎn)換;而輸出層沒(méi)有用到激活函數(shù),因?yàn)楸敬挝覀儾皇沁M(jìn)行分類或者其他操作,一般情況下隱藏層使用激活函數(shù)Relu,輸出層若是分類則用sigmode,當(dāng)然你也可以不用,本次實(shí)驗(yàn)只是單純地做異或運(yùn)算,那輸出層就不勞駕激活函數(shù)了~

對(duì)于標(biāo)準(zhǔn)神經(jīng)元內(nèi)部的操作可理解為下圖:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

這里的x和w一般寫(xiě)成矩陣形式,因?yàn)榇蠖鄶?shù)都是多個(gè)輸入,而矩陣的乘積要滿足一定的條件,這一點(diǎn)屬于線代中最基礎(chǔ)的部分,大家可以稍微了解一下,這里對(duì)設(shè)定權(quán)重的形狀還是很重要的;

看下效果吧:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

這是我們?cè)趯W(xué)習(xí)率為0.1,迭代1001次的條件下得到的結(jié)果

然后我們學(xué)習(xí)率不變,迭代2001次,看效果:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

沒(méi)有改進(jìn),這就說(shuō)明不是迭代次數(shù)的問(wèn)題,我們還是保持2001的迭代數(shù),將學(xué)習(xí)率改為0.01,看效果:

Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式

以上是“Tensorflow如何實(shí)現(xiàn)XOR運(yùn)算的方式”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI