#

pytorch

  • Pytorch使用MNIST數(shù)據(jù)集實(shí)現(xiàn)CGAN和生成指定的數(shù)字方式

    CGAN的全拼是Conditional Generative Adversarial Networks,條件生成對抗網(wǎng)絡(luò),在初始GAN的基礎(chǔ)上增加了圖片的相應(yīng)信息。 這里用傳統(tǒng)的卷積方式實(shí)現(xiàn)CGAN。

    作者:shiheyingzhe
    2020-10-25 10:19:48
  • PyTorch中的C++擴(kuò)展實(shí)現(xiàn)

    今天要聊聊用 PyTorch 進(jìn)行 C++ 擴(kuò)展。 在正式開始前,我們需要了解 PyTorch 如何自定義module。這其中,最常見的就是在 python 中繼承torch.nn.Module,用

    作者:jermmyhsu
    2020-10-24 19:03:39
  • pytorch 彩色圖像轉(zhuǎn)灰度圖像實(shí)例

    pytorch 庫 pytorch 本身具有載入cifar10等數(shù)據(jù)集的函數(shù),但是載入的是3*200*200的張量,當(dāng)碰到要使用灰度圖像時,可以使用他本身的函數(shù)進(jìn)行修改,以較快速的完成彩色圖像轉(zhuǎn)灰度圖

    作者:zzw小凡
    2020-10-24 17:11:00
  • Pytorch之contiguous的用法

    contiguous tensor變量調(diào)用contiguous()函數(shù)會使tensor變量在內(nèi)存中的存儲變得連續(xù)。 contiguous():view只能用在contiguous的variable上。

    作者:嘖嘖嘖biubiu
    2020-10-23 07:39:06
  • Pytorch抽取網(wǎng)絡(luò)層的Feature Map(Vgg)實(shí)例

    這邊我是需要得到圖片在Vgg的5個block里relu后的Feature Map (其余網(wǎng)絡(luò)只需要替換就可以了) 索引可以這樣獲得 vgg = models.vgg19(pretrained=Tr

    作者:seeney
    2020-10-23 06:45:03
  • pytorch實(shí)現(xiàn)seq2seq時對loss進(jìn)行mask的方式

    如何對loss進(jìn)行mask pytorch官方教程中有一個Chatbot教程,就是利用seq2seq和注意力機(jī)制實(shí)現(xiàn)的,感覺和機(jī)器翻譯沒什么不同啊,如果對話中一句話有下一句,那么就把這一對句子加入模

    作者:uhauha2929
    2020-10-22 21:43:03
  • pytorch實(shí)現(xiàn)focal loss的兩種方式小結(jié)

    我就廢話不多說了,直接上代碼吧! import torch import torch.nn.functional as F import numpy as np from torch.autogr

    作者:WYXHAHAHA123
    2020-10-22 07:50:37
  • pytorch 調(diào)整某一維度數(shù)據(jù)順序的方法

    在pytorch中,Tensor是以引用的形式存在的,故而并不能直接像python交換數(shù)據(jù)那樣 a = torch.Tensor(3,4) a[0],a[1] = a[1],a[0] # 這會導(dǎo)

    作者:SYSU_BOND
    2020-10-22 04:23:25
  • pytorch神經(jīng)網(wǎng)絡(luò)之卷積層與全連接層參數(shù)的設(shè)置方法

    當(dāng)使用pytorch寫網(wǎng)絡(luò)結(jié)構(gòu)的時候,本人發(fā)現(xiàn)在卷積層與第一個全連接層的全連接層的input_features不知道該寫多少?一開始本人的做法是對著pytorch官網(wǎng)的公式推,但是總是算錯。 后來發(fā)現(xiàn)

    作者:嘿芝麻
    2020-10-21 23:33:02
  • 解決Pytorch訓(xùn)練過程中l(wèi)oss不下降的問題

    在使用Pytorch進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,有時會遇到訓(xùn)練學(xué)習(xí)率不下降的問題。出現(xiàn)這種問題的可能原因有很多,包括學(xué)習(xí)率過小,數(shù)據(jù)沒有進(jìn)行Normalization等。不過除了這些常規(guī)的原因,還有一種難以發(fā)

    作者:貓猬獸
    2020-10-21 23:15:03