1.查看gpu工作状态

2.显示机器上的显卡信息

GPU 命令行释放内存:
链接
3.tensorflow在训练模型的时候如何指定GPU进行训练
import os
os.environ['CUDA_VISIBLE_DEVICES']='2,3'
这种方法还可以在运行python程序的前面指定,比如:
CUDA_VISIBLE_DEVICES=2 python train_ .py
4.pycharm 中添加anaconda中的tensorflow
File->Default Setting->Project Interpreter

Python interpreter路径:/Users/tewisong/anaconda3/envs/tensorflow/bin/python3.6
5.如果同时安装了两个版本,默认下运行gpu版,如想运行cpu版,可代码中设置如下:
with tf.Session() as ses:
with tf.device("/cpu:0"):
matrix1=tf.constant([[3.,3.]])
matrix2=tf.constant([[2.],[2.]])
product=tf.matmul(matrix1,matrix2)
博客介绍了GPU使用及TensorFlow配置的相关内容,包括查看GPU工作状态、显示显卡信息、GPU命令行释放内存,还提及TensorFlow训练模型时指定GPU的方法,以及在PyCharm中添加Anaconda里的TensorFlow,同时说明了双版本下运行CPU版的设置。
5740

被折叠的 条评论
为什么被折叠?



