您好,登錄后才能下訂單哦!
9 大主題卷積神經(jīng)網(wǎng)絡(luò)的PyTorch實現(xiàn)是怎樣的,相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。
對于各種卷積神經(jīng)網(wǎng)絡(luò)模型的實現(xiàn),這里將介紹它們的 PyTorch 實現(xiàn),非常有用!
典型的卷積神經(jīng)網(wǎng)絡(luò)包括:AlexNet、VGG、ResNet、InceptionV1、InceptionV2、InceptionV3、InceptionV4、Inception-ResNet。
以 AlexNet 網(wǎng)絡(luò)為例,AlexNet 是 2012 年 ImageNet 競賽冠軍獲得者 Hinton 和他的學(xué)生 Alex Krizhevsky 設(shè)計的。AlexNet 中包含了幾個比較新的技術(shù)點,也首次在 CNN 中成功應(yīng)用了 ReLU、Dropout 和 LRN 等 Trick。同時 AlexNet 也使用了 GPU 進(jìn)行運(yùn)算加速。
AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)的 PyTorch 實現(xiàn)方式如下:
import torchimport torch.nn as nndef Conv3x3BNReLU(in_channels,out_channels,stride,padding=1): return nn.Sequential( nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=3, stride=stride, padding=1), nn.BatchNorm2d(out_channels), nn.ReLU6(inplace=True) )def Conv1x1BNReLU(in_channels,out_channels): return nn.Sequential( nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=1, stride=1, padding=0), nn.BatchNorm2d(out_channels), nn.ReLU6(inplace=True) )def ConvBNReLU(in_channels,out_channels,kernel_size,stride,padding=1): return nn.Sequential( nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=kernel_size, stride=stride, padding=padding), nn.BatchNorm2d(out_channels), nn.ReLU6(inplace=True) )def ConvBN(in_channels,out_channels,kernel_size,stride,padding=1): return nn.Sequential( nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=kernel_size, stride=stride, padding=padding), nn.BatchNorm2d(out_channels) )class ResidualBlock(nn.Module): def __init__(self, in_channels, out_channels): super(ResidualBlock, self).__init__() mid_channels = out_channels//2 self.bottleneck = nn.Sequential( ConvBNReLU(in_channels=in_channels, out_channels=mid_channels, kernel_size=1, stride=1), ConvBNReLU(in_channels=mid_channels, out_channels=mid_channels, kernel_size=3, stride=1, padding=1), ConvBNReLU(in_channels=mid_channels, out_channels=out_channels, kernel_size=1, stride=1), ) self.shortcut = ConvBNReLU(in_channels=in_channels, out_channels=out_channels, kernel_size=1, stride=1) def forward(self, x): out = self.bottleneck(x) return out+self.shortcut(x)
輕量級網(wǎng)絡(luò)包括:GhostNet、MobileNets、MobileNetV2、MobileNetV3、ShuffleNet、ShuffleNet V2、SqueezeNet Xception MixNet GhostNet。
以 GhostNet 為例,同樣精度,速度和計算量均少于此前 SOTA 算法。GhostNet 的核心是 Ghost 模塊,與普通卷積神經(jīng)網(wǎng)絡(luò)相比,在不更改輸出特征圖大小的情況下,其所需的參數(shù)總數(shù)和計算復(fù)雜度均已降低,而且即插即用。
GhostNet 網(wǎng)絡(luò)結(jié)構(gòu)的 PyTorch 實現(xiàn)方式如下:
https://github.com/shanglianlm0525/PyTorch-Networks/blob/master/Lightweight/GhostNet.py
目標(biāo)檢測網(wǎng)絡(luò)包括:SSD、YOLO、YOLOv2、YOLOv3、FCOS、FPN、RetinaNet Objects as Points、FSAF、CenterNet FoveaBox。
以 YOLO 系列為例,YOLO(You Only Look Once)是一種基于深度神經(jīng)網(wǎng)絡(luò)的對象識別和定位算法,其最大的特點是運(yùn)行速度很快,可以用于實時系統(tǒng)。目前 YOLOv3 應(yīng)用比較多。
YOLOV3 網(wǎng)絡(luò)結(jié)構(gòu)的 PyTorch 實現(xiàn)方式如下:
https://github.com/shanglianlm0525/PyTorch-Networks/blob/master/ObjectDetection/YOLOv3.py
語義分割網(wǎng)絡(luò)包括:FCN、Fast-SCNN、LEDNet、LRNNet、FisheyeMODNet。
以 FCN 為例,F(xiàn)CN 誕生于 2014 的語義分割模型先驅(qū),主要貢獻(xiàn)為在語義分割問題中推廣使用端對端卷積神經(jīng)網(wǎng)絡(luò),使用反卷積進(jìn)行上采樣。FCN 模型非常簡單,里面全部是由卷積構(gòu)成的,所以被稱為全卷積網(wǎng)絡(luò),同時由于全卷積的特殊形式,因此可以接受任意大小的輸入。
FCN 網(wǎng)絡(luò)結(jié)構(gòu)的 PyTorch 實現(xiàn)方式如下:
https://github.com/shanglianlm0525/PyTorch-Networks/blob/master/SemanticSegmentation/FCN.py
實例分割網(wǎng)絡(luò)包括:PolarMask。
人臉檢測和識別網(wǎng)絡(luò)包括:FaceBoxes、LFFD、VarGFaceNet。
人體姿態(tài)識別網(wǎng)絡(luò)包括:Stacked Hourglass、Networks Simple Baselines、LPN。
注意力機(jī)制網(wǎng)絡(luò)包括:SE Net、scSE、NL Net、GCNet、CBAM。
人像分割網(wǎng)絡(luò)包括:SINet。
綜上,該 GitHub 開源項目展示了近些年來主流的 9 大類卷積神經(jīng)網(wǎng)絡(luò),總共包含了幾十種具體的網(wǎng)絡(luò)結(jié)構(gòu)。其中每個網(wǎng)絡(luò)結(jié)構(gòu)都有 PyTorch 實現(xiàn)方式。還是很不錯的。
看完上述內(nèi)容,你們掌握9 大主題卷積神經(jīng)網(wǎng)絡(luò)的PyTorch實現(xiàn)是怎樣的的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。