您好,登錄后才能下訂單哦!
小編給大家分享一下keras使用神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)銷量的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
keras非常方便。
不解釋,直接上實(shí)例。
數(shù)據(jù)格式如下:
序號(hào) 天氣 是否周末 是否有促銷 銷量 1 壞 是 是 高 2 壞 是 是 高 3 壞 是 是 高 4 壞 否 是 高 5 壞 是 是 高 6 壞 否 是 高 7 壞 是 否 高 8 好 是 是 高 9 好 是 否 高 10 好 是 是 高 11 好 是 是 高 12 好 是 是 高 13 好 是 是 高 14 壞 是 是 低 15 好 否 是 高 16 好 否 是 高 17 好 否 是 高 18 好 否 是 高 19 好 否 否 高 20 壞 否 否 低 21 壞 否 是 低 22 壞 否 是 低 23 壞 否 是 低 24 壞 否 否 低 ......
代碼如下:
#-*- coding: utf-8 -*- #使用神經(jīng)網(wǎng)絡(luò)算法預(yù)測(cè)銷量高低 import pandas as pd #參數(shù)初始化 inputfile = 'data/sales_data.xls' data = pd.read_excel(inputfile, index_col = u'序號(hào)') #導(dǎo)入數(shù)據(jù) #數(shù)據(jù)是類別標(biāo)簽,要將它轉(zhuǎn)換為數(shù)據(jù) #用1來(lái)表示“好”、“是”、“高”這三個(gè)屬性,用0來(lái)表示“壞”、“否”、“低” data[data == u'好'] = 1 data[data == u'是'] = 1 data[data == u'高'] = 1 data[data != 1] = 0 x = data.iloc[:,:3].as_matrix().astype(int) y = data.iloc[:,3].as_matrix().astype(int) print x from keras.models import Sequential from keras.layers.core import Dense, Activation,Dropout model = Sequential() model.add(Dense(64, input_shape=(3,))) model.add(Dropout(0.5)) model.add(Dense(64, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy']) #編譯模型。由于我們做的是二元分類,所以我們指定損失函數(shù)為binary_crossentropy,以及模式為binary #另外常見(jiàn)的損失函數(shù)還有mean_squared_error、categorical_crossentropy等,請(qǐng)閱讀幫助文件。 #求解方法我們指定用adam,還有sgd、rmsprop等可選 model.fit(x, y, nb_epoch = 1000, batch_size = 10) #訓(xùn)練模型,學(xué)習(xí)一千次 yp = model.predict_classes(x).reshape(len(y)) #分類預(yù)測(cè)
10/34 [=======>......................] - ETA: 0s - loss: 0.3723 - acc: 0.8000 34/34 [==============================] - 0s - loss: 0.4470 - acc: 0.7647 Epoch 1000/1000
結(jié)果為經(jīng)過(guò)1000輪訓(xùn)練準(zhǔn)確率為0.7647.
補(bǔ)充知識(shí):利用Keras搭建神經(jīng)網(wǎng)絡(luò)進(jìn)行回歸預(yù)測(cè)
我就廢話不多說(shuō)了,大家還是直接看代碼吧~
from keras.datasets import boston_housing from keras import models from keras import layers (X_train, y_train), (X_test, y_test) = boston_housing.load_data()#加載數(shù)據(jù) #對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化預(yù)處理,方便神經(jīng)網(wǎng)絡(luò)更好的學(xué)習(xí) mean = X_train.mean(axis=0) X_train -= mean std = X_train.std(axis=0) X_train /= std X_test -= mean X_test /= std #構(gòu)建神經(jīng)網(wǎng)絡(luò)模型 def build_model(): #這里使用Sequential模型 model = models.Sequential() #進(jìn)行層的搭建,注意第二層往后沒(méi)有輸入形狀(input_shape),它可以自動(dòng)推導(dǎo)出輸入的形狀等于上一層輸出的形狀 model.add(layers.Dense(64, activation='relu',input_shape=(X_train.shape[1],))) model.add(layers.Dense(64, activation='relu')) model.add(layers.Dense(1)) #編譯網(wǎng)絡(luò) model.compile(optimizer='rmsprop', loss='mse', metrics=['mae']) return model num_epochs = 100 model = build_model() model.fit(X_train, y_train,epochs=num_epochs, batch_size=1, verbose=0) predicts = model.predict(X_test)
在實(shí)際操作中可以用自己的數(shù)據(jù)進(jìn)行測(cè)試,最終預(yù)測(cè)出的predicts,可以利用回歸評(píng)價(jià)指標(biāo)和y_test進(jìn)行模型效果的評(píng)價(jià)。
看完了這篇文章,相信你對(duì)keras使用神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)銷量的方法有了一定的了解,想了解更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。