#

pytorch

  • PyTorch的深度學(xué)習(xí)入門教程之構(gòu)建神經(jīng)網(wǎng)絡(luò)

    前言 本文參考PyTorch官網(wǎng)的教程,分為五個基本模塊來介紹PyTorch。為了避免文章過長,這五個模塊分別在五篇博文中介紹。 Part3:使用PyTorch構(gòu)建一個神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)可以使用tou

    作者:雁回晴空
    2020-09-04 16:02:16
  • Pytorch中膨脹卷積的用法詳解

    卷積和膨脹卷積 在深度學(xué)習(xí)中,我們會碰到卷積的概念,我們知道卷積簡單來理解就是累乘和累加,普通的卷積我們在此不做贅述,大家可以翻看相關(guān)書籍很好的理解。 最近在做項目過程中,碰到Pytorch中使用膨脹

    作者:DL&ML
    2020-09-04 05:57:41
  • 對Pytorch中nn.ModuleList 和 nn.Sequential詳解

    簡而言之就是,nn.Sequential類似于Keras中的貫序模型,它是Module的子類,在構(gòu)建數(shù)個網(wǎng)絡(luò)層之后會自動調(diào)用forward()方法,從而有網(wǎng)絡(luò)模型生成。而nn.ModuleList僅僅

    作者:ustc_lijia
    2020-09-04 05:47:05
  • 使用pytorch進行圖像的順序讀取方法

    產(chǎn)生此次實驗的原因:當(dāng)我使用pytorch進行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時,需要每次向CNN傳入一組圖像,并且這些圖片的存放位置是在兩個文件夾中: A文件夾:圖片1a,圖片2a,圖片3a……圖片1000a B文件

    作者:頭發(fā)結(jié)冰的魚
    2020-09-04 02:39:39
  • 基于pytorch padding=SAME的解決方式

    tensorflow中的conv2有padding=‘SAME'這個參數(shù)。吳恩達講課中說到當(dāng)padding=(f-1)/2(f為卷積核大?。r則是SAME策略。但是這個沒有考慮到空洞卷積的情況,也沒有

    作者:BenjaminYoung29
    2020-09-03 20:16:02
  • pytorch 圖像中的數(shù)據(jù)預(yù)處理和批標準化實例

    目前數(shù)據(jù)預(yù)處理最常見的方法就是中心化和標準化。 中心化相當(dāng)于修正數(shù)據(jù)的中心位置,實現(xiàn)方法非常簡單,就是在每個特征維度上減去對應(yīng)的均值,最后得到 0 均值的特征。 標準化也非常簡單,在數(shù)據(jù)變成 0 均值

    作者:xckkcxxck
    2020-09-03 15:40:52
  • 利用Pytorch實現(xiàn)簡單的線性回歸算法

    最近聽了張江老師的深度學(xué)習(xí)課程,用Pytorch實現(xiàn)神經(jīng)網(wǎng)絡(luò)預(yù)測,之前做Titanic生存率預(yù)測的時候稍微了解過Tensorflow,聽說Tensorflow能做的Pyorch都可以做,而且更方便快捷

    作者:carmanzzz
    2020-09-03 07:10:15
  • 使用pytorch搭建AlexNet操作(微調(diào)預(yù)訓(xùn)練模型及手動搭建)

    本文介紹了如何在pytorch下搭建AlexNet,使用了兩種方法,一種是直接加載預(yù)訓(xùn)練模型,并根據(jù)自己的需要微調(diào)(將最后一層全連接層輸出由1000改為10),另一種是手動搭建。 構(gòu)建模型類的時候需要

    作者:sjtu_leexx
    2020-09-02 03:57:59
  • pytorch 自定義數(shù)據(jù)集加載方法

    pytorch 官網(wǎng)給出的例子中都是使用了已經(jīng)定義好的特殊數(shù)據(jù)集接口來加載數(shù)據(jù),而且其使用的數(shù)據(jù)都是官方給出的數(shù)據(jù)。如果我們有自己收集的數(shù)據(jù)集,如何用來訓(xùn)練網(wǎng)絡(luò)呢?此時需要我們自己定義好數(shù)據(jù)處理接口。

    作者:xholes
    2020-08-31 19:17:51
  • PyTorch中 tensor.detach() 和 tensor.data 的區(qū)別詳解

    PyTorch0.4中,.data 仍保留,但建議使用 .detach(), 區(qū)別在于 .data 返回和 x 的相同數(shù)據(jù) tensor, 但不會加入到x的計算歷史里,且require s_grad

    作者:夢家
    2020-08-31 09:29:53