服务器两块GPU,跑tensorflow 版bert想将两块GPU都用上。看了别的教程说有两种方法,在windows server 2016上试验了一下,用的GPU-Z工具进行GPU观察,因为windows server的任务管理器是个阉割版看不到GPU性能。
方法一:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"#指定显卡1运行
###如果想用多块显卡可以按如下方式,但是未经测试,我的代码在estimator写的,应该是后期GPU处理上自己要分配GPU资源才能多块GPU并行,我按如下方式电脑会取你设置运行的显卡里的第一个显卡来运行###
os.environ['CUDA_VISIBLE_DEVICES'] = '1,0',
方法二:
config = tf.ConfigProto(device_count={'GPU': 0})
###GPU:0 表示使用CPU不使用GPU,GPU:1表示使用GPU###