溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

pyhton中sklearn機(jī)器學(xué)習(xí)算法的示例分析

發(fā)布時(shí)間:2021-02-05 10:31:21 來(lái)源:億速云 閱讀:181 作者:小新 欄目:編程語(yǔ)言

這篇文章主要介紹pyhton中sklearn機(jī)器學(xué)習(xí)算法的示例分析,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

導(dǎo)入必要通用模塊

import pandas as pdimport matplotlib.pyplot as pltimport osimport numpy as npimport copyimport reimport math

一 機(jī)器學(xué)習(xí)通用框架:以knn為例

#利用鄰近點(diǎn)方式訓(xùn)練數(shù)據(jù)不太適用于高維數(shù)據(jù)from sklearn.model_selection import train_test_split#將數(shù)據(jù)分為測(cè)試集和訓(xùn)練集from sklearn.neighbors import KNeighborsClassifier#利用鄰近點(diǎn)方式訓(xùn)練數(shù)據(jù)#1.讀取數(shù)據(jù)data=pd.read_excel('數(shù)據(jù)/樣本數(shù)據(jù).xlsx')#2.將數(shù)據(jù)標(biāo)準(zhǔn)化from sklearn import preprocessingfor col in data.columns[2:]:#為了不破壞數(shù)據(jù)集中的離散變量,只將數(shù)值種類數(shù)高于10的連續(xù)變量標(biāo)準(zhǔn)化
       if len(set(data[col]))>10:
              data[col]=preprocessing.scale(data[col])#3.構(gòu)造自變量和因變量并劃分為訓(xùn)練集和測(cè)試集X=data[['month_income','education_outcome','relationship_outcome', 'entertainment_outcome','traffic_', 'express',
       'express_distance','satisfac', 'wifi_neghbor','wifi_relative', 'wifi_frend', 'internet']]y=data['wifi']X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3)#利用train_test_split進(jìn)行將訓(xùn)練集和測(cè)試集進(jìn)行分開(kāi),test_size占30%#4.模型擬合model=KNeighborsClassifier()#引入訓(xùn)練方法model.fit(X_train,y_train)#進(jìn)行填充測(cè)試數(shù)據(jù)進(jìn)行訓(xùn)練y_predict=model.predict(X_test)#利用測(cè)試集數(shù)據(jù)作出預(yù)測(cè)#通過(guò)修改判別概率標(biāo)準(zhǔn)修改預(yù)測(cè)結(jié)果proba=model.predict_proba(X_test)#返回基于各個(gè)測(cè)試集樣本所預(yù)測(cè)的結(jié)果為0和為1的概率值#5.模型評(píng)價(jià)#(1)測(cè)試集樣本數(shù)據(jù)擬合優(yōu)度,model.score(X,y)model.score(X_test,y_test)#(2)構(gòu)建混淆矩陣,判斷預(yù)測(cè)精準(zhǔn)程度"""
混淆矩陣中行代表真實(shí)值,列代表預(yù)測(cè)值
TN:實(shí)際為0預(yù)測(cè)為0的個(gè)數(shù)       FP:實(shí)際為0預(yù)測(cè)為1的個(gè)數(shù)
FN:實(shí)際為1預(yù)測(cè)為0的個(gè)數(shù)       TP:實(shí)際為1預(yù)測(cè)為1的個(gè)數(shù)

精準(zhǔn)率precision=TP/(TP+FP)——被預(yù)測(cè)為1的樣本的的預(yù)測(cè)正確率
召回率recall=TP/(TP+FN)——實(shí)際為1的樣本的正確預(yù)測(cè)率
"""from sklearn.metrics import confusion_matrix
cfm=confusion_matrix(y_test, y_predict)plt.matshow(cfm,cmap=plt.cm.gray)#cmap參數(shù)為繪制矩陣的顏色集合,這里使用灰度plt.show()#(3)精準(zhǔn)率和召回率from sklearn.metrics import precision_score,recall_score
precision_score(y_test, y_predict)# 精準(zhǔn)率recall_score(y_test, y_predict)#召回率#(4)錯(cuò)誤率矩陣row_sums = np.sum(cfm,axis=1)err_matrix = cfm/row_sums
np.fill_diagonal(err_matrix,0)#對(duì)err_matrix矩陣的對(duì)角線置0,因?yàn)檫@是預(yù)測(cè)正確的部分,不關(guān)心plt.matshow(err_matrix,cmap=plt.cm.gray)#亮度越高的地方代表錯(cuò)誤率越高plt.show()

二 數(shù)據(jù)處理

#1.構(gòu)造數(shù)據(jù)集from sklearn import datasets#引入數(shù)據(jù)集#n_samples為生成樣本的數(shù)量,n_features為X中自變量的個(gè)數(shù),n_targets為y中因變量的個(gè)數(shù),bias表示使線性模型發(fā)生偏差的程度,X,y=datasets.make_regression(n_samples=100,n_features=1,n_targets=1,noise=1,bias=0.5,tail_strength=0.1)plt.figure(figsize=(12,12))plt.scatter(X,y)#2.讀取數(shù)據(jù)data=pd.read_excel('數(shù)據(jù)/樣本數(shù)據(jù).xlsx')#3.將數(shù)據(jù)標(biāo)準(zhǔn)化——preprocessing.scale(data)from sklearn import preprocessing#為了不破壞數(shù)據(jù)集中的離散變量,只將數(shù)值種類數(shù)高于10的連續(xù)變量標(biāo)準(zhǔn)化for col in data.columns[2:]:
       if len(set(data[col]))>10:
              data[col]=preprocessing.scale(data[col])

三 回歸

1.普通最小二乘線性回歸

import numpy as npfrom sklearn.linear_model import LinearRegressionfrom sklearn.model_selection import train_test_split

X=data[['work', 'work_time', 'work_salary',
       'work_address', 'worker_number', 'month_income', 'total_area',
       'own_area', 'rend_area', 'out_area',
       'agricultal_income', 'things', 'wifi', 'internet_fee', 'cloth_outcome',
       'education_outcome', 'medcine_outcome', 'person_medicne_outcome',
       'relationship_outcome', 'food_outcome', 'entertainment_outcome',
       'agriculta_outcome', 'other_outcome', 'owe', 'owe_total', 'debt',
       'debt_way', 'distance_debt', 'distance_market', 'traffic_', 'express',
       'express_distance', 'exercise', 'satisfac', 'wifi_neghbor',
       'wifi_relative', 'wifi_frend', 'internet', 'medical_insurance']]y=data['total_income']model=LinearRegression().fit(X,y)#擬合模型model.score(X,y)#擬合優(yōu)度model.coef_#查看擬合系數(shù)model.intercept_#查看擬合截距項(xiàng)model.predict(np.array(X.ix[25,:]).reshape(1,-1))#預(yù)測(cè)model.get_params()#得到模型的參數(shù)

2.邏輯回歸Logit

from sklearn.linear_model import LogisticRegression#2.1數(shù)據(jù)處理X=data[['month_income', 'education_outcome','relationship_outcome', 'entertainment_outcome','traffic_', 'express',
       'express_distance','satisfac', 'wifi_neghbor','wifi_relative', 'wifi_frend', 'internet']]y=data['wifi']X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3)#利用train_test_split進(jìn)行將訓(xùn)練集和測(cè)試集進(jìn)行分開(kāi),test_size占30%#2.2模型擬合model = LogisticRegression()model.fit(X_train,y_train)model.score(X_test,y_test)#2.3模型預(yù)測(cè)y_predict = model.predict(X_test)#2.4通過(guò)調(diào)整判別分?jǐn)?shù)標(biāo)準(zhǔn),來(lái)調(diào)整判別結(jié)果decsion_scores = model.decision_function(X_test)#用于決定預(yù)測(cè)值取值的判別分?jǐn)?shù)y_predict = decsion_scores>=5.0#將判別分?jǐn)?shù)標(biāo)準(zhǔn)調(diào)整為5#2.5通過(guò) 精準(zhǔn)率——召回率曲線圖 尋找最優(yōu)判別標(biāo)準(zhǔn)#由于隨著判別標(biāo)準(zhǔn)的變化,精確率和召回率此消彼長(zhǎng),因此需要尋找一個(gè)最佳的判別標(biāo)準(zhǔn)使得精準(zhǔn)率和召回率盡可能大from sklearn.metrics import precision_recall_curve
precisions,recalls,thresholds = precision_recall_curve(y_test,decsion_scores)#thresholds表示所有可能得判別標(biāo)準(zhǔn),即判別分?jǐn)?shù)最大與最小值之間的范圍#由于precisions和recalls中比thresholds多了一個(gè)元素,因此要繪制曲線,先去掉這個(gè)元素plt.plot(thresholds,precisions[:-1])plt.plot(thresholds,recalls[:-1])plt.show()y_predict = decsion_scores>=2#根據(jù)上圖顯示,兩線交于-0.3處,因此將判別分?jǐn)?shù)標(biāo)準(zhǔn)調(diào)整為-0.3#2.6繪制ROC曲線:用于描述TPR和FPR之間的關(guān)系,ROC曲線圍成的面積越大,說(shuō)明模型越好"""TPR即是召回率_越大越好,F(xiàn)PR=(FP)/(TN+FP)_越小越好"""from sklearn.metrics import roc_curve
fprs,tprs,thresholds = roc_curve(y_test,decsion_scores)plt.plot(fprs,tprs)plt.show()#2.7繪制混淆矩陣from sklearn.metrics import confusion_matrix,precision_score,recall_score
cfm =confusion_matrix(y_test, y_predict)# 構(gòu)建混淆矩陣并繪制混淆矩陣熱力圖plt.matshow(cfm,cmap=plt.cm.gray)#cmap參數(shù)為繪制矩陣的顏色集合,這里使用灰度plt.show()precision_score(y_test, y_predict)# 精準(zhǔn)率recall_score(y_test, y_predict)#召回率

四 模型評(píng)價(jià)

#1.混淆矩陣,精準(zhǔn)率和召回率from sklearn.metrics import confusion_matrix,precision_score,recall_score"""
混淆矩陣中行代表真實(shí)值,列代表預(yù)測(cè)值
TN:實(shí)際為0預(yù)測(cè)為0的個(gè)數(shù)       FP:實(shí)際為0預(yù)測(cè)為1的個(gè)數(shù)
FN:實(shí)際為1預(yù)測(cè)為0的個(gè)數(shù)       TP:實(shí)際為1預(yù)測(cè)為1的個(gè)數(shù)

精準(zhǔn)率precision=TP/(TP+FP)——被預(yù)測(cè)為1的樣本的的預(yù)測(cè)正確率
召回率recall=TP/(TP+FN)——實(shí)際為1的樣本的正確預(yù)測(cè)率
"""cfm =confusion_matrix(y_test, y_predict)# 構(gòu)建混淆矩陣并繪制混淆矩陣熱力圖plt.matshow(cfm,cmap=plt.cm.gray)#cmap參數(shù)為繪制矩陣的顏色集合,這里使用灰度plt.show()precision_score(y_test, y_predict)# 精準(zhǔn)率recall_score(y_test, y_predict)#召回率#2.精準(zhǔn)率和召回率作圖:由于精準(zhǔn)率和召回率此消彼長(zhǎng),應(yīng)當(dāng)選擇適當(dāng)?shù)膮?shù)使二者同時(shí)盡可能的大#3.調(diào)和平均值"""精準(zhǔn)率和召回率的調(diào)和平均值"""from sklearn.metrics import f1_score
f1_score(y_test,y_predict)#4.錯(cuò)誤率矩陣row_sums = np.sum(cfm,axis=1)err_matrix = cfm/row_sums
np.fill_diagonal(err_matrix,0)#對(duì)err_matrix矩陣的對(duì)角線置0,因?yàn)檫@是預(yù)測(cè)正確的部分,不關(guān)心plt.matshow(err_matrix,cmap=plt.cm.gray)#亮度越高的地方代表錯(cuò)誤率越高plt.show()

以上是“pyhton中sklearn機(jī)器學(xué)習(xí)算法的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI