您好,登錄后才能下訂單哦!
Conv2d的簡單使用
torch 包 nn 中 Conv2d 的用法與 tensorflow 中類似,但不完全一樣。
在 torch 中,Conv2d 有幾個(gè)基本的參數(shù),分別是
in_channels 輸入圖像的深度
out_channels 輸出圖像的深度
kernel_size 卷積核大小,正方形卷積只為單個(gè)數(shù)字
stride 卷積步長,默認(rèn)為1
padding 卷積是否造成尺寸丟失,1為不丟失
與tensorflow不一樣的是,pytorch中的使用更加清晰化,我們可以使用這種方法定義輸入與輸出圖像的深度并同時(shí)指定使用的卷積核的大小。
而我們的輸入則由經(jīng)由 Conv2d 定義的參數(shù)傳入,如下所示:
# 定義一個(gè)輸入深度為1,輸出為6,卷積核大小為 3*3 的 conv1 變量 self.conv1 = nn.Conv2d(1, 6, 3) # 傳入原始輸入x,以獲得長寬與x相當(dāng),深度為6的卷積部分 x = self.conv1(x)
要注意的是,Conv2d中所需要的輸入順序?yàn)?/p>
batchsize, nChannels, Height, Width
其他的簡單使用
同樣的,與 Conv2d 類似的函數(shù)還有很多,類似 max_pool2d、relu等等,他們的使用方法與 Conv2d 極為類似,如下所示:
# relu函數(shù)的使用 F.relu(self.conv1(x)) # 池化函數(shù)的使用 F.max_pool2d(F.relu(self.conv2(x)), 2)
以上這篇pytorch2.0中torch.nn.Conv2d用法詳解就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持億速云。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。