您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)Linux中如何監(jiān)視NVIDIA的GPU使用情況,小編覺得挺實(shí)用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
在使用TensorFlow跑深度學(xué)習(xí)的時候,經(jīng)常出現(xiàn)顯存不足的情況,所以我們希望能夠隨時查看GPU時使用率。如果你是Nvidia的GPU,那么在命令行下,只需要一行命令就可以實(shí)現(xiàn)。
1. 顯示當(dāng)前GPU使用情況
Nvidia自帶了一個nvidia-smi的命令行工具,會顯示顯存使用情況:
$ nvidia-smi
輸出:
2. 周期性輸出GPU使用情況
但是有時我們希望不僅知道那一固定時刻的GPU使用情況,我們希望一直掌握其動向,此時我們就希望周期性地輸出,比如每 10s 就更新顯示。 這時候就需要用到 watch命令,來周期性地執(zhí)行nvidia-smi命令了。
了解一下watch的功能:
$ whatis watch watch(1) - execute a program periodically, showing output fullscreen
作用:周期性執(zhí)行某一命令,并將輸出顯示。
watch的基本用法是:
$ watch [options] command
最常用的參數(shù)是 -n, 后面指定是每多少秒來執(zhí)行一次命令。
監(jiān)視顯存:我們設(shè)置為每 10s 顯示一次顯存的情況:
$ watch -n 10 nvidia-smi
顯示如下:
這樣,只要開著這個命令行窗口,就可以每十秒刷新一次,是不是很方便呢?
如果我們希望來周期性地執(zhí)行其他命令行操作,那么就可以簡單地更換后面的nvidia-smi即可,So Cool !
關(guān)于“Linux中如何監(jiān)視NVIDIA的GPU使用情況”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。