您好,登錄后才能下訂單哦!
小編給大家分享一下如何設(shè)置Tensorflow全局可見GPU編號的操作,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討方法吧!
筆者需要tensorflow僅運行在一個GPU上(機器本身有多GPU),而且需要依據(jù)系統(tǒng)參數(shù)動態(tài)調(diào)節(jié),故無法簡單使用CUDA_VISIBLE_DEVICES。
一種方式是全局使用tf.device函數(shù)生成的域,但設(shè)備號需要在繪制Graph前指定,仍然不夠靈活。
查閱文檔發(fā)現(xiàn)config的GPUOptions中的visible_device_list可以定義GPU編號從visible到virtual的映射,即可以設(shè)置tensorflow可見的GPU device,從而全局設(shè)置了tensorflow可見的GPU編號。代碼如下:
config = tf.ConfigProto() config.gpu_options.visible_device_list = str(device_num) sess = tf.Session(config=config)
參考 多卡服務(wù)器下隱藏部分 GPU 和 TensorFlow 的顯存使用設(shè)置,還可以通過os包設(shè)置全局變量CUDA_VISIBLE_DEVICES,代碼如下:
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
補充知識:TensorFlow 設(shè)置程序可見GPU與邏輯分區(qū)
TensorFlow 設(shè)置程序可見GPU(多GPU情況)
import matplotlib as mpl import matplotlib.pyplot as plt %matplotlib inline import numpy as np import sklearn import pandas as pd import os import sys import time import tensorflow as tf from tensorflow_core.python.keras.api._v2 import keras print(tf.__version__) print(sys.version_info) for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__) # 打印變量所在位置 tf.debugging.set_log_device_placement(True) # 獲取物理GPU的個數(shù) gpus = tf.config.experimental.list_physical_devices("GPU") if len(gpus) >= 1: # 設(shè)置第幾個GPU 當(dāng)前程序可見 tf.config.experimental.set_visible_devices(gpus[0], "GPU") print("物理GPU個數(shù):", len(gpus)) # 獲取邏輯GPU的個數(shù) logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("邏輯GPU個數(shù):", len(logical_gpus))
TensorFlow 設(shè)置GPU的 邏輯分區(qū)
import matplotlib as mpl import matplotlib.pyplot as plt %matplotlib inline import numpy as np import sklearn import pandas as pd import os import sys import time import tensorflow as tf from tensorflow_core.python.keras.api._v2 import keras print(tf.__version__) print(sys.version_info) for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__) # 打印變量所在位置 tf.debugging.set_log_device_placement(True) # 獲取物理GPU的個數(shù) gpus = tf.config.experimental.list_physical_devices("GPU") if len(gpus) >= 1: # 設(shè)置第幾個GPU 當(dāng)前程序可見 tf.config.experimental.set_visible_devices(gpus[0], "GPU") # 設(shè)置GPU的 邏輯分區(qū) tf.config.experimental.set_virtual_device_configuration( gpus[0], [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072), tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072)]) print("物理GPU個數(shù):", len(gpus)) # 獲取邏輯GPU的個數(shù) logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("邏輯GPU個數(shù):", len(logical_gpus))
TensorFlow 手動設(shè)置處理GPU
import matplotlib as mpl import matplotlib.pyplot as plt %matplotlib inline import numpy as np import sklearn import pandas as pd import os import sys import time import tensorflow as tf from tensorflow_core.python.keras.api._v2 import keras print(tf.__version__) print(sys.version_info) for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__) # 打印變量所在位置 tf.debugging.set_log_device_placement(True) # 自動指定處理設(shè)備 tf.config.set_soft_device_placement(True) # 獲取物理GPU的個數(shù) gpus = tf.config.experimental.list_physical_devices("GPU") for gpu in gpus: # 設(shè)置內(nèi)存自增長方式 tf.config.experimental.set_memory_growth(gpu, True) print("物理GPU個數(shù):", len(gpus)) # 獲取邏輯GPU的個數(shù) logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("邏輯GPU個數(shù):", len(logical_gpus)) c = [] # 循環(huán)遍歷當(dāng)前邏輯GPU for gpu in logical_gpus: print(gpu.name) # 手動設(shè)置處理GPU with tf.device(gpu.name): a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]]) # 矩陣相乘 并且添加至列表 c.append(tf.matmul(a, b)) # 手動設(shè)置處理GPU with tf.device("/GPU:0"): matmul_sum = tf.add_n(c) print(matmul_sum)
看完了這篇文章,相信你對如何設(shè)置Tensorflow全局可見GPU編號的操作有了一定的了解,想了解更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。