您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“pytorch中batch normalize的使用示例”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“pytorch中batch normalize的使用示例”這篇文章吧。
torch.nn.BatchNorm1d()
1、BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)
對(duì)于2d或3d輸入進(jìn)行BN。在訓(xùn)練時(shí),該層計(jì)算每次輸入的均值和方差,并進(jìn)行平行移動(dòng)。移動(dòng)平均默認(rèn)的動(dòng)量為0.1。在驗(yàn)證時(shí),訓(xùn)練求得的均值/方差將用于標(biāo)準(zhǔn)化驗(yàn)證數(shù)據(jù)。
num_features:表示輸入的特征數(shù)。該期望輸入的大小為'batch_size x num_features [x width]'
Shape: - 輸入:(N, C)或者(N, C, L) - 輸出:(N, C)或者(N,C,L)(輸入輸出相同)
2、BatchNorm2d(同上)
對(duì)3d數(shù)據(jù)組成的4d輸入進(jìn)行BN。
num_features: 來自期望輸入的特征數(shù),該期望輸入的大小為'batch_size x num_features x height x width'
Shape: - 輸入:(N, C,H, W) - 輸出:(N, C, H, W)(輸入輸出相同)
3、BatchNorm3d(同上)
對(duì)4d數(shù)據(jù)組成的5d輸入進(jìn)行BN。
以上是“pytorch中batch normalize的使用示例”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。