您好,登錄后才能下訂單哦!
小編給大家分享一下python使用learning_curve的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
python learning_curve函數(shù)
這個(gè)函數(shù)的作用為:對于不同大小的訓(xùn)練集,確定交叉驗(yàn)證訓(xùn)練和測試的分?jǐn)?shù)。
一個(gè)交叉驗(yàn)證發(fā)生器將整個(gè)數(shù)據(jù)集分割k次,分割成訓(xùn)練集和測試集。
不同大小的訓(xùn)練集的子集將會(huì)被用來訓(xùn)練評估器并且對于每一個(gè)大小的訓(xùn)練子集都會(huì)產(chǎn)生一個(gè)分?jǐn)?shù),然后測試集的分?jǐn)?shù)也會(huì)計(jì)算。然后,對于每一個(gè)訓(xùn)練子集,運(yùn)行k次之后的所有這些分?jǐn)?shù)將會(huì)被平均。
這個(gè)函數(shù)需要引用sklearn包
import sklearnfrom sklearn.learning_curve import learning_curve
這個(gè)函數(shù)的調(diào)用格式是:
learning_curve(estimator, X, y, train_sizes=array([ 0.1 , 0.325, 0.55 , 0.775, 1. ]), cv=None, scoring=None, exploit_incremental_learning=False, n_jobs=1, pre_dispatch='all', verbose=0)
estimator:所使用的分類器
X:array-like, shape (n_samples, n_features)
訓(xùn)練向量,n_samples是樣本的數(shù)量,n_features是特征的數(shù)量
y:array-like, shape (n_samples) or (n_samples, n_features), optional
目標(biāo)相對于X分類或者回歸
train_sizes:array-like, shape (n_ticks,), dtype float or int
訓(xùn)練樣本的相對的或絕對的數(shù)字,這些量的樣本將會(huì)生成learning curve。如果dtype是float,他將會(huì)被視為最大數(shù)量訓(xùn)練集的一部分(這個(gè)由所選擇的驗(yàn)證方法所決定)。否則,他將會(huì)被視為訓(xùn)練集的絕對尺寸。要注意的是,對于分類而言,樣本的大小必須要充分大,達(dá)到對于每一個(gè)分類都至少包含一個(gè)樣本的情況。
cv:int, cross-validation generator or an iterable, optional
確定交叉驗(yàn)證的分離策略
--None,使用默認(rèn)的3-fold cross-validation,
--integer,確定是幾折交叉驗(yàn)證
--一個(gè)作為交叉驗(yàn)證生成器的對象
--一個(gè)被應(yīng)用于訓(xùn)練/測試分離的迭代器
verbose : integer, optional
控制冗余:越高,有越多的信息
返回值:
train_sizes_abs:array, shape = (n_unique_ticks,), dtype int
用于生成learning curve的訓(xùn)練集的樣本數(shù)。由于重復(fù)的輸入將會(huì)被刪除,所以ticks可能會(huì)少于n_ticks.
train_scores : array, shape (n_ticks, n_cv_folds)
在訓(xùn)練集上的分?jǐn)?shù)
test_scores : array, shape (n_ticks, n_cv_folds)
在測試集上的分?jǐn)?shù)
看完了這篇文章,相信你對python使用learning_curve的方法有了一定的了解,想了解更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。