溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

發(fā)布時(shí)間:2021-11-06 10:28:31 來(lái)源:億速云 閱讀:221 作者:小新 欄目:開(kāi)發(fā)技術(shù)

這篇文章主要為大家展示了“Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例”這篇文章吧。

    1.數(shù)據(jù)概覽分析

    1.1 數(shù)據(jù)概覽

    本次提供:

    • train.csv,訓(xùn)練集;

    • test.csv,測(cè)試集;

    • submission.csv 真實(shí)房?jī)r(jià)文件;

    訓(xùn)練集404行數(shù)據(jù),14列,每行數(shù)據(jù)表示房屋以及房屋周圍的詳細(xì)信息,已給出對(duì)應(yīng)的自住房平均房?jī)r(jià)。要求預(yù)測(cè)102條測(cè)試數(shù)據(jù)的房?jī)r(jià)。

    1.2 數(shù)據(jù)分析

    通過(guò)學(xué)習(xí)房屋以及房屋周圍的詳細(xì)信息,其中包含城鎮(zhèn)犯罪率,一氧化氮濃度,住宅平均房間數(shù),到中心區(qū)域的加權(quán)距離以及自住房平均房?jī)r(jià)等等,訓(xùn)練模型,通過(guò)某個(gè)地區(qū)的房屋以及房屋周圍的詳細(xì)信息,預(yù)測(cè)該地區(qū)的自住房平均房?jī)r(jià)。

    回歸問(wèn)題,提交測(cè)試集每條數(shù)據(jù)對(duì)應(yīng)的自住房平均房?jī)r(jià)。評(píng)估指標(biāo)為均方誤差mse。

    2. 項(xiàng)目總體思路

    2.1 數(shù)據(jù)讀取

    數(shù)據(jù)集:波士頓房間訓(xùn)練集.csv (404條數(shù)據(jù))
    數(shù)據(jù)集字段如下:
    CRIM:城鎮(zhèn)人均犯罪率。
    ZN:住宅用地超過(guò) 25000 sq.ft. 的比例。
    INDUS:城鎮(zhèn)非零售商用土地的比例。
    CHAS:查理斯河空變量(如果邊界是河流,則為1;否則為0)。
    NOX:一氧化氮濃度。
    RM:住宅平均房間數(shù)。
    AGE:1940 年之前建成的自用房屋比例。
    DIS:到波士頓五個(gè)中心區(qū)域的加權(quán)距離。
    RAD:輻射性公路的接近指數(shù)。
    TAX:每 10000 美元的全值財(cái)產(chǎn)稅率。
    PTRATIO:城鎮(zhèn)師生比例。
    B:1000(Bk-0.63)^ 2,其中 Bk 指代城鎮(zhèn)中黑人的比例。
    LSTAT:人口中地位低下者的比例。
    MEDV:自住房的平均房?jī)r(jià),以千美元計(jì)。

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    2.2 模型預(yù)處理

    (1)數(shù)據(jù)離群點(diǎn)處理

    首先對(duì)訓(xùn)練集進(jìn)行拆分為子訓(xùn)練集與子測(cè)試集,利用train_data.sort_values對(duì)訓(xùn)練集進(jìn)行排序,依次刪除每個(gè)特征對(duì)應(yīng)的離群樣本,利用子訓(xùn)練集與子測(cè)試集對(duì)模型進(jìn)行訓(xùn)練與測(cè)試并確定該特征下所需刪除樣本的最佳個(gè)數(shù)。

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    (2)數(shù)據(jù)歸一化處理

    利用sklearn.preprocessing. StandardScaler對(duì)數(shù)據(jù)集與標(biāo)簽分別進(jìn)行標(biāo)準(zhǔn)化處理。

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    2.3. 特征工程

    利用隨機(jī)森林特征選擇算法剔除不敏感特征。

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    2.4. 模型選擇

    使用GradientBoostingRegressor集成回歸模型。

    Gradient Boosting 在迭代的時(shí)候選擇梯度下降的方向來(lái)保證最后的結(jié)果最好。損失函數(shù)用來(lái)描述模型的“靠譜”程度,假設(shè)模型沒(méi)有過(guò)擬合,損失函數(shù)越大,模型的錯(cuò)誤率越高

    如果我們的模型能夠讓損失函數(shù)持續(xù)的下降,則說(shuō)明我們的模型在不停的改進(jìn),而最好的方式就是讓損失函數(shù)在其梯度方向上下降。

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    2.5. 模型評(píng)價(jià)

    采用均方誤差(MSE)評(píng)分標(biāo)準(zhǔn),MSE: Mean Squared Error 。均方誤差是指參數(shù)估計(jì)值與參數(shù)真值之差平方的期望值;

    MSE可以評(píng)價(jià)數(shù)據(jù)的變化程度,MSE的值越小,說(shuō)明預(yù)測(cè)模型描述實(shí)驗(yàn)數(shù)據(jù)具有更好的精確度。計(jì)算公式如下:

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    其在測(cè)試集上的MSE值為:

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    2.6. 模型調(diào)參

    對(duì)n_ n_estimators的參數(shù)進(jìn)行調(diào)參:

    Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例

    以上是“Python人工智能中波士頓房?jī)r(jià)數(shù)據(jù)分析的案例”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

    向AI問(wèn)一下細(xì)節(jié)

    免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

    AI