您好,登錄后才能下訂單哦!
Python人工智能深度學(xué)習(xí)模型訓(xùn)練經(jīng)驗(yàn)有哪些,相信很多沒(méi)有經(jīng)驗(yàn)的人對(duì)此束手無(wú)策,為此本文總結(jié)了問(wèn)題出現(xiàn)的原因和解決方法,通過(guò)這篇文章希望你能解決這個(gè)問(wèn)題。
ReLU:Rectified Linear Unit
圖像如下圖所示:當(dāng)z<0時(shí),a = 0, 當(dāng)z>0時(shí),a = z,也就是說(shuō)這個(gè)激活函數(shù)是對(duì)輸入進(jìn)行線性轉(zhuǎn)換。使用這個(gè)激活函數(shù),由于有0的存在,計(jì)算之后會(huì)刪除掉一些神經(jīng)元,使得神經(jīng)網(wǎng)絡(luò)變窄。
該函數(shù)也有其他變體,如下圖所示,主要是對(duì)于z小于0的時(shí)候,對(duì)應(yīng)
Maxout:以上幾種函數(shù)的一般形式
簡(jiǎn)單來(lái)說(shuō)就是誰(shuí)大輸出誰(shuí),通過(guò)Maxout可以自己學(xué)習(xí)激活函數(shù)。當(dāng)給出的參數(shù)不同的時(shí)候,可以得到上面所描述的各類(lèi)函數(shù)。如下圖所示,當(dāng)輸入給1個(gè)計(jì)算單元時(shí),得到藍(lán)色的線,假如第二個(gè)計(jì)算單元參數(shù)均為0,則是X軸上的一條線,那么在這兩個(gè)之中取大的那個(gè),就是ReLU;當(dāng)?shù)诙€(gè)計(jì)算單元參數(shù)不為0的時(shí)候,就可以得到其他形式的結(jié)果。
Adagrad是使用前面的梯度進(jìn)行平方和再開(kāi)方,作為計(jì)算梯度時(shí)系數(shù)的一部分。
是Adagrad的進(jìn)階版,在Adagrad中,是使用了前面所有的梯度平方和再開(kāi)方,這個(gè)系數(shù)中沒(méi)有考慮當(dāng)前的梯度。在RMSProp中,是考慮了現(xiàn)在的梯度,也對(duì)其進(jìn)行平方,并對(duì)兩項(xiàng)進(jìn)行一個(gè)權(quán)重的分配。
加入動(dòng)量的梯度下降
下圖中,v就是上一次的方向。在計(jì)算本次方向的時(shí)候,加入lambda倍的上一次的方向。其實(shí)v就是過(guò)去算出來(lái)的所有的梯度的總和。
將RMSProp和Momentum結(jié)合
通過(guò)交叉驗(yàn)證集,提前停止訓(xùn)練
和其他的算法正則化方式一致,有L1和L2正則,此處不再詳細(xì)描述。
每次訓(xùn)練的時(shí)候,都以p%的幾率去掉一些神經(jīng)元以及輸入值。得到如下圖所示的更瘦一些的神經(jīng)網(wǎng)絡(luò)。直接去訓(xùn)練這個(gè)神經(jīng)網(wǎng)絡(luò)。下一次訓(xùn)練的時(shí)候,對(duì)整個(gè)網(wǎng)絡(luò)重新進(jìn)行采樣。(類(lèi)似于隨機(jī)森林)
在測(cè)試的時(shí)候不進(jìn)行dropout,如果訓(xùn)練的時(shí)候的dropout幾率是p%,那么在測(cè)試集上,所有的權(quán)重都乘上(1-p)%
看完上述內(nèi)容,你們掌握Python人工智能深度學(xué)習(xí)模型訓(xùn)練經(jīng)驗(yàn)有哪些的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。