您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)yolov5訓(xùn)練時參數(shù)workers與batch-size的示例分析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
python .\train.py --data my.yaml --workers 8 --batch-size 32 --epochs 100
yolov5的訓(xùn)練很簡單,下載好倉庫,裝好依賴后,只需自定義一下data目錄中的yaml文件就可以了。這里我使用自定義的my.yaml文件,里面就是定義數(shù)據(jù)集位置和訓(xùn)練種類數(shù)和名字。
一般訓(xùn)練主要需要調(diào)整的參數(shù)是這兩個:
指數(shù)據(jù)裝載時cpu所使用的線程數(shù),默認(rèn)為8。代碼解釋如下
parser.add_argument('--workers', type=int, default=8, help='max dataloader workers (per RANK in DDP mode)')
一般默使用8的話,會報錯~~。原因是爆系統(tǒng)內(nèi)存,除了物理內(nèi)存外,需要調(diào)整系統(tǒng)的虛擬內(nèi)存。訓(xùn)練時主要看已提交哪里的實際值是否會超過最大值,超過了不是強(qiáng)退程序就是報錯。
所以需要根據(jù)實際情況分配系統(tǒng)虛擬內(nèi)存(python執(zhí)行程序所在的盤)的最大值
就是一次往GPU哪里塞多少張圖片了。決定了顯存占用大小,默認(rèn)是16。
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')
訓(xùn)練時顯存占用越大當(dāng)然效果越好,但如果爆顯存,也是會無法訓(xùn)練的。我使用–batch-size 32時,顯存差不多能利用完。
對于workers,并不是越大越好,太大時gpu其實處理不過來,訓(xùn)練速度一樣,但虛擬內(nèi)存(磁盤空間)會成倍占用。
workers為4時的內(nèi)存占用
workers為8時的內(nèi)存占用
我的顯卡是rtx3050,實際使用中上到4以上就差別不大了,gpu完全吃滿了。但是如果設(shè)置得太小,gpu會跑不滿。比如當(dāng)workers=1時,顯卡功耗只得72W,速度慢了一半;workers=4時,顯卡功耗能上到120+w,完全榨干了顯卡的算力。所以需要根據(jù)你實際的算力調(diào)整這個參數(shù)。
2. 對于batch-size,有點玄學(xué)。理論是能盡量跑滿顯存為佳,但實際測試下來,發(fā)現(xiàn)當(dāng)為8的倍數(shù)時效率更高一點。就是32時的訓(xùn)練效率會比34的高一點,這里就不太清楚原理是什么了,實際操作下來是這樣。
關(guān)于“yolov5訓(xùn)練時參數(shù)workers與batch-size的示例分析”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。