#

pytorch

  • pytorch實現(xiàn)特殊的Module--Sqeuential三種寫法

    我就廢話不多說了,直接上代碼吧! # -*- coding: utf-8 -*- #@Time :2019/7/1 13:34 #@Author :XiaoMa import torch a

    作者:fly_Xiaoma
    2020-10-05 22:56:56
  • Pytorch中.new()的作用詳解

    一、作用 創(chuàng)建一個新的Tensor,該Tensor的type和device都和原有Tensor一致,且無內(nèi)容。 二、使用方法 如果隨機定義一個大小的Tensor,則新的Tensor有兩種創(chuàng)建方法,如下

    作者:悲戀花丶無心之人
    2020-10-05 10:18:30
  • pytorch 共享參數(shù)的示例

    在很多神經(jīng)網(wǎng)絡(luò)中,往往會出現(xiàn)多個層共享一個權(quán)重的情況,pytorch可以快速地處理權(quán)重共享問題。 例子1: class ConvNet(nn.Module): def __init__(sel

    作者:馬管子
    2020-10-04 23:37:48
  • Pytorch實現(xiàn)LSTM和GRU示例

    為了解決傳統(tǒng)RNN無法長時依賴問題,RNN的兩個變體LSTM和GRU被引入。 LSTM Long Short Term Memory,稱為長短期記憶網(wǎng)絡(luò),意思就是長的短時記憶,其解決的仍然是短時記憶問

    作者:winycg
    2020-10-04 17:31:13
  • pytorch實現(xiàn)用Resnet提取特征并保存為txt文件的方法

    接觸pytorch一天,發(fā)現(xiàn)pytorch上手的確比TensorFlow更快??梢愿奖愕貙崿F(xiàn)用預(yù)訓(xùn)練的網(wǎng)絡(luò)提特征。 以下是提取一張jpg圖像的特征的程序: # -*- coding: utf-8

    作者:qq_32464407
    2020-10-04 00:22:05
  • pytorch查看torch.Tensor和model是否在CUDA上的實例

    今天訓(xùn)練faster R-CNN時,發(fā)現(xiàn)之前跑的很好的程序(是指在運行程序過程中,顯卡利用率能夠一直維持在70%以上),今天看的時候,顯卡利用率很低,所以在想是不是我的訓(xùn)練數(shù)據(jù)torch.Tensor

    作者:WYXHAHAHA123
    2020-10-03 13:58:21
  • Pytorch 實現(xiàn)focal_loss 多類別和二分類示例

    我就廢話不多說了,直接上代碼吧! import numpy as np import torch import torch.nn as nn import torch.nn.functional

    作者:Kingslayer_
    2020-10-03 02:03:44
  • Pytorch GPU顯存充足卻顯示out of memory的解決方式

    今天在測試一個pytorch代碼的時候顯示顯存不足,但是這個網(wǎng)絡(luò)框架明明很簡單,用CPU跑起來都沒有問題,GPU卻一直提示out of memory. 在網(wǎng)上找了很多方法都行不通,最后我想也許是pyt

    作者:imaginist233
    2020-10-02 11:30:06
  • Pytorch卷積層手動初始化權(quán)值的實例

    由于研究關(guān)系需要自己手動給卷積層初始化權(quán)值,但是好像博客上提到的相關(guān)文章比較少(大部分都只提到使用nn.init里的按照一定分布初始化方法),自己參考了下Pytorch的官方文檔,發(fā)現(xiàn)有兩種方法吧。

    作者:Learn2Learn
    2020-10-02 02:31:24
  • 詳解pytorch中squeeze()和unsqueeze()函數(shù)介紹

    squeeze的用法主要就是對數(shù)據(jù)的維度進行壓縮或者解壓。 先看torch.squeeze() 這個函數(shù)主要對數(shù)據(jù)的維度進行壓縮,去掉維數(shù)為1的的維度,比如是一行或者一列這種,一個一行三列(1,3)的

    作者:Jaborie203
    2020-10-01 16:33:33