溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Pyspark?線性回歸梯度下降交叉驗(yàn)證的知識(shí)點(diǎn)是什么

發(fā)布時(shí)間:2021-12-20 09:07:47 來源:億速云 閱讀:127 作者:柒染 欄目:開發(fā)技術(shù)

這期內(nèi)容當(dāng)中小編將會(huì)給大家?guī)碛嘘P(guān)Pyspark 線性回歸梯度下降交叉驗(yàn)證的知識(shí)點(diǎn)是什么,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

我正在嘗試在 pyspark 中的 SGD 模型上執(zhí)行交叉驗(yàn)證,我正在使用pyspark.mllib.regression,ParamGridBuilder和CrossValidator都來自pyspark.ml.tuning庫的LinearRegressionWithSGD。

在 Spark 網(wǎng)站上跟蹤文件資料之后,我希望運(yùn)行此方法可以正常工作

lr = LinearRegressionWithSGD()
pipeline=Pipeline(stages=[lr])

paramGrid = ParamGridBuilder()\
    .addGrid(lr.stepSize, Array(0.1, 0.01))\
    .build()

crossval = CrossValidator(estimator=pipeline,estimatorParamMaps= paramGrid,
                         evaluator=RegressionEvaluator(),
                         numFolds=10)

但是LinearRegressionWithSGD()沒有屬性stepSize(也沒有運(yùn)氣嘗試過其他人)。

我可以將 lr 設(shè)置為LinearRegression,但是我無法在模型中使用 SGD 并進(jìn)行交叉驗(yàn)證。

斯卡拉中有kFold方法,但我不確定如何從 pyspark 訪問該方法

解決方案

您可以使用LinearRegressionWithSGD中的step參數(shù)來定義步長,但由于您正在混合不兼容的庫,因此這將使代碼無法正常工作。不幸的是,我不知道如何使用SGD優(yōu)化對(duì)ml庫進(jìn)行交叉驗(yàn)證,我想知道自己,但是您正在混合使用pyspark.ml和pyspark.mllib庫。具體來說,您不能將LinearRegressionWithSGD與pyspark.ml庫一起使用。您必須使用pyspark.ml.regression.LinearRegression。

好消息是您可以將pyspark.ml.regression.LinearRegression的setsolver屬性設(shè)置為使用'gd'。因此,您可能可以將'gd'優(yōu)化器的參數(shù)設(shè)置為以SGD運(yùn)行,但是我不確定求解器文檔在哪里或如何設(shè)置求解器屬性(例如批大?。?。該api顯示了調(diào)用Param()的LinearRegression對(duì)象,但是我不確定它是否使用pyspark.mllib優(yōu)化器。如果有人知道如何設(shè)置求解器屬性,則可以通過允許您將Pipeline,ParamGridBuilder和CrossValidation ml軟件包用于LinearRegression進(jìn)行模型選擇,并利用SGD優(yōu)化進(jìn)行參數(shù)調(diào)整來回答您的問題。

上述就是小編為大家分享的Pyspark 線性回歸梯度下降交叉驗(yàn)證的知識(shí)點(diǎn)是什么了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI