由于tensorflow默認(rèn)搶占服務(wù)器所有GPU顯存,只允許一個(gè)小內(nèi)存的程序也會(huì)占用所有GPU資源砾嫉。下面提出使用GPU運(yùn)行tensorflow的幾點(diǎn)建議:
1.在運(yùn)行之前先查看GPU的使用情況:
$ nvidia-smi? ? ? ? ? # 查看GPU此時(shí)的使用情況
或者
$ nvidia-smi -l? ? ? # 實(shí)時(shí)返回GPU使用情況
2.目前實(shí)驗(yàn)室服務(wù)器有0,1在孝,2硕糊,3四個(gè)GPU,找到空閑的GPU號(hào)冕碟,可以使用環(huán)境變量CUDA_VISIBLE_DEVICES:
環(huán)境變量的定義格式:
CUDA_VISIBLE_DEVICES=1? ? ? ? ? Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1? ? Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES=”0,1”? Same as above, quotation marks are optional
CUDA_VISIBLE_DEVICES=0,2,3? Devices 0, 2, 3 will be visible; device 1 is masked
輸入以下命令運(yùn)行程序:
$ export CUDA_VISIBLE_DEVICES=0? # 假設(shè)此時(shí) GPU 0 空閑
為了防止新開終端忘記export,比較保險(xiǎn)的做法是每次運(yùn)行tensorflow之前定義使用的GPU:
$ CUDA_VISIBLE_DEVICES=0Pythonmnist.py? # 假設(shè)此時(shí) GPU 0 空閑, mnist.py為你想運(yùn)行的程序匆浙。
3.這樣tensorflow此時(shí)只會(huì)在指定的GPU上運(yùn)行,但是仍然會(huì)占用整個(gè)GPU的顯存厕妖,不過(guò)不和其他人公用GPU時(shí)也不會(huì)有影響首尼,下面介紹兩種限定GPU占用的方法:
(1)在tensorflow中定義session時(shí)作如下設(shè)置,該設(shè)置會(huì)啟用最少的GPU顯存來(lái)運(yùn)行程序言秸。
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
(2)在tensorflow中定義session時(shí)作如下設(shè)置软能,該設(shè)置會(huì)強(qiáng)制程序只占用指定比例的GPU顯存。
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4? # 占用GPU40%的顯存
session = tf.Session(config=config)
注:
- 在tensorflow代碼中with tf.device(‘/gpu:0’):只會(huì)指定在GPU 0上計(jì)算举畸,但仍然會(huì)默認(rèn)占用所有GPU資源查排。
原文參考:http://blog.csdn.net/qq_30159351/article/details/52892577