您好,登錄后才能下訂單哦!
這篇文章主要介紹“python中怎么使用Keras進(jìn)行回歸運(yùn)算”的相關(guān)知識(shí),小編通過實(shí)際案例向大家展示操作過程,操作方法簡(jiǎn)單快捷,實(shí)用性強(qiáng),希望這篇“python中怎么使用Keras進(jìn)行回歸運(yùn)算”文章能幫助大家解決問題。
Keras是一個(gè)由Python編寫的開源人工神經(jīng)網(wǎng)絡(luò)庫,可以作Tensorflow、Microsoft-CNTK和Theano的高階應(yīng)用程序接口,進(jìn)行深度學(xué)習(xí)模型的設(shè)計(jì)、調(diào)試、評(píng)估、應(yīng)用和可視化。
Keras相當(dāng)于比Tensorflow和Theano更高一層的庫,其可以以Tensorflow或者Theano為底層框架,以更加簡(jiǎn)潔、高效的方式添加代碼。
在2018年Tensorflow 2.0.0公開后,Keras被正式確立為Tensorflow高階API。
Sequential又稱為序貫?zāi)P汀?/p>
序貫?zāi)P蜑樽詈?jiǎn)單的線性、從頭到尾的結(jié)構(gòu)順序,不分叉,是多個(gè)網(wǎng)絡(luò)層的線性堆疊。
在利用Keras進(jìn)行模型構(gòu)建前,只需要用如下函數(shù)建立模型就夠了。
model = Sequential()
此時(shí)便已經(jīng)建立了一個(gè)按次序的模型,之后在往模型中添加層的時(shí)候,就是按照次序添加的。
Dense用于往Sequential中添加全連接層。全連接層示意圖如下。(圖片源自百度百科)
具體而言,簡(jiǎn)單的BP神經(jīng)網(wǎng)絡(luò)中,輸入層到隱含層中間的權(quán)值連接,其實(shí)與全連接層的意義相同。
在Keras中,如果需要往model中添加全連接層,可使用如下函數(shù)。
model.add(Dense(output_dim = 1,input_dim = 1))
此時(shí)表示輸入維度為1,輸出維度也為1。
model.compile在Keras中的作用主要用于定義loss函數(shù)和優(yōu)化器。
其調(diào)用方式如下:
model.compile(loss='mse', optimizer='sgd', metrics=['accuracy'])
其中l(wèi)oss用于定義計(jì)算損失的損失函數(shù),其可以選擇的內(nèi)容如下:
1、mse:均方根誤差,常用于回歸預(yù)測(cè)。
2、categorical_crossentropy:亦稱作多類的對(duì)數(shù)損失,注意使用該目標(biāo)函數(shù)時(shí),需要將標(biāo)簽轉(zhuǎn)化為形如(nb_samples, nb_classes)的二值序列,常用于分類。
3、sparse_categorical_crossentrop:如上,但接受稀疏標(biāo)簽。
optimizer用于定義優(yōu)化器,可以使用默認(rèn)的,也可以從keras.optimizers導(dǎo)出。
其可以選擇的內(nèi)容可以參照Keras中文文檔。上文中選擇的是隨機(jī)梯度下降法sgd。
metrics=[‘accuracy’]常用于分類運(yùn)算中,本例子中不適用,accuracy代表計(jì)算分類精確度。
該例子為一元線性回歸例子。
import numpy as np from keras.models import Sequential from keras.layers import Dense ## 全連接層 import matplotlib.pyplot as plt # 生成測(cè)試數(shù)據(jù) X = np.linspace(-1,1,200) np.random.shuffle(X) Y = 0.5*X + 2 + np.random.normal(0,0.05,(200,)) # 劃分訓(xùn)練集和測(cè)試集 X_train,Y_train = X[:160],Y[:160] X_test,Y_test = X[160:],Y[160:] # start model = Sequential() model.add(Dense(output_dim = 1,input_dim = 1)) # compile model.compile(loss = 'mse',optimizer = 'sgd') # 訓(xùn)練 print("\ntraining") for step in range(2001): cost = model.train_on_batch(X_train,Y_train) if step%100 == 0: print("tarin_cost:",cost) # 測(cè)試 print("\nTest") cost = model.evaluate(X_test,Y_test,batch_size=40) W,b = model.layers[0].get_weights() print("Weights",W,"biaxes",b) # 預(yù)測(cè)結(jié)果 Y = model.predict(X_test) plt.scatter(X_test,Y_test) plt.plot(X_test,Y) plt.show()
實(shí)現(xiàn)結(jié)果為:
tarin_cost: 4.506874 tarin_cost: 0.21098542 tarin_cost: 0.041809298 tarin_cost: 0.013134768 tarin_cost: 0.0055761375 tarin_cost: 0.0035068158 tarin_cost: 0.0029388934 tarin_cost: 0.002783 tarin_cost: 0.0027402083 tarin_cost: 0.002728462 tarin_cost: 0.0027252387 tarin_cost: 0.0027243525 tarin_cost: 0.0027241106 tarin_cost: 0.0027240426 tarin_cost: 0.002724025 tarin_cost: 0.0027240203 tarin_cost: 0.0027240184 tarin_cost: 0.0027240182 tarin_cost: 0.0027240175 tarin_cost: 0.0027240175 tarin_cost: 0.0027240175 Test 40/40 [==============================] - 0s 874us/step Weights [[0.5041559]] biaxes [1.9961643]
關(guān)于“python中怎么使用Keras進(jìn)行回歸運(yùn)算”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí),可以關(guān)注億速云行業(yè)資訊頻道,小編每天都會(huì)為大家更新不同的知識(shí)點(diǎn)。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。