【轉(zhuǎn)載】
tf.ConfigProto()函數(shù)用在創(chuàng)建session的時候属百,用來對session進(jìn)行參數(shù)配置:
config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%顯存
sess = tf.Session(config=config)
1. 記錄設(shè)備指派情況:tf.ConfigProto(log_device_placement=True)
設(shè)置tf.ConfigProto()中參數(shù)log_device_placement = True ,可以獲取到 operations 和 Tensor 被指派到哪個設(shè)備(幾號CPU或幾號GPU)上運行,會在終端打印出各項操作是在哪個設(shè)備上運行的钦购。
2. 自動選擇運行設(shè)備 : tf.ConfigProto(allow_soft_placement=True)
在tf中删性,通過命令 "with tf.device('/cpu:0'):",允許手動設(shè)置操作運行的設(shè)備。如果手動設(shè)置的設(shè)備不存在或者不可用蝙搔,就會導(dǎo)致tf程序等待或異常捎拯,為了防止這種情況弃衍,可以設(shè)置tf.ConfigProto()中參數(shù)allow_soft_placement=True,允許tf自動選擇一個存在并且可用的設(shè)備來運行操作燎孟。
3. 限制GPU資源使用:
為了加快運行效率禽作,TensorFlow在初始化時會嘗試分配所有可用的GPU顯存資源給自己,這在多人使用的服務(wù)器上工作就會導(dǎo)致GPU占用揩页,別人無法使用GPU工作的情況旷偿。
tf提供了兩種控制GPU資源使用的方法,一是讓TensorFlow在運行過程中動態(tài)申請顯存爆侣,需要多少就申請多少;第二種方式就是限制GPU的使用率萍程。
一、動態(tài)申請顯存
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
二兔仰、限制GPU使用率
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%顯存
session = tf.Session(config=config)
或者
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
4.設(shè)置使用哪塊GPU
方法一茫负、在python程序中設(shè)置:
#在程序開頭
os.environ['CUDA_VISIBLE_DEVICES'] = '0' #使用 GPU 0
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 使用 GPU 0,1
方法二乎赴、在執(zhí)行python程序時候:
CUDA_VISIBLE_DEVICE=0,1 python yourcode.py
推薦使用更靈活一點的第二種方法忍法。