您好,登錄后才能下訂單哦!
這篇文章主要介紹pytorch如何實(shí)現(xiàn)打印模型的參數(shù)值,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
對于簡單的網(wǎng)絡(luò)
例如全連接層Linear
可以使用以下方法打印linear層:
fc = nn.Linear(3, 5) params = list(fc.named_parameters()) print(params.__len__()) print(params[0]) print(params[1])
輸出如下:
由于Linear默認(rèn)是偏置bias的,所有參數(shù)列表的長度是2。第一個(gè)存的是全連接矩陣,第二個(gè)存的是偏置。
對于稍微復(fù)雜的網(wǎng)絡(luò)
例如MLP
mlp = nn.Sequential( nn.Dropout(p=0.3), nn.Linear(1024, 256), nn.Linear(256, 64), nn.Linear(64, 16), nn.Linear(16, 1) ) params = list(mlp.named_parameters()) print(params.__len__()) print(params[0]) print(params[1]) print(params[2]) print(params[3])
輸出:
可以發(fā)現(xiàn),堆疊起來的網(wǎng)絡(luò),參數(shù)是依次放置的。先是全連接的權(quán)重,然后偏置。然后是下一層網(wǎng)絡(luò)的權(quán)重+偏置。依次進(jìn)行下去。
這里有4層fc,4*2=8.所以一共有8個(gè)參數(shù)矩陣。
1.PyTorch是相當(dāng)簡潔且高效快速的框架;2.設(shè)計(jì)追求最少的封裝;3.設(shè)計(jì)符合人類思維,它讓用戶盡可能地專注于實(shí)現(xiàn)自己的想法;4.與google的Tensorflow類似,F(xiàn)AIR的支持足以確保PyTorch獲得持續(xù)的開發(fā)更新;5.PyTorch作者親自維護(hù)的論壇 供用戶交流和求教問題6.入門簡單
以上是“pytorch如何實(shí)現(xiàn)打印模型的參數(shù)值”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。