20220101
https://www.cnblogs.com/zucc-31701019/p/14665855.html
CUDA 安装报错 could not create file “…\chrome_elf.dll”
关闭360
20210617
https://blog.youkuaiyun.com/weixin_43486780/article/details/108664978
pytorch 1.6 cuda 10 显卡安装
20210607
https://blog.youkuaiyun.com/iLOVEJohnny/article/details/106021547
https://blog.youkuaiyun.com/wuzhongqiang/article/details/108881845
pytorch 利用 gpu运行模型
device = torch.device(“cuda:0” if torch.cuda.is_available() else “cpu”)
model.to(device)
https://www.jianshu.com/p/03b092454202
https://blog.youkuaiyun.com/weixin_41041772/article/details/109805687
显卡命令
20210110
显卡使用限制
指定多块GPU的方式和前文完全一致,只需要多写几个编号即可:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"
Part 3. 控制GPU显存使用比例
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
Part 5. 显存的按需分配(动态增长)
如果并不清楚自己的应用分配多少的显存比例合适,可以使用按需分配的方式,也就是动态增长allow_growth:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))
加粗样式
20210106
np.random.seed(123)
tf.set_random_seed(123)
config = tf.ConfigProto(inter_op_parallelism_threads=1)
config.gpu_options.per_process_gpu_memory_fraction = 1 # in my case this setting will use around 1G memory on GPU
set_session(tf.Session(config=config))
显卡使用量配置
20201228
windows 释放显存
taskkill -pid 123 -f
帮助里面的 /PID 斜杠 其实是横杠
释放显卡显存
fuser -v /dev/nvidia* #查找占用GPU资源的PID
然后我们执行:
kill -9 pid
然后再执行nvidia-smi就可以看到内存已经被释放了
20201225
自己的电脑,cudnn 7.6 能适配 tensorflow 12.3 gpu
Process finished with exit code -1073740791 (0xC0000409)
显卡运行时候报这种错误一般都是显存溢出
显卡路径
nvidia 设置
显卡运行进程查看
20201224
虚拟环境用的是系统环境的显卡环境 无须单独为虚拟环境配置显卡
TF 和 cuda 版本对应问题
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: 找不到指定的模块。
解决方案在上面
20201223
https://blog.youkuaiyun.com/qq_27825451/article/details/89082978
https://tensorflow.google.cn/install/source_windows
tensorflow 与 显卡对应关系
https://blog.youkuaiyun.com/kyle1314608/article/details/111573317
虚拟环境 tensorflow gpu
我的小米笔记本显卡驱动
G:\显卡驱动
20201125
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
https://blog.youkuaiyun.com/kyle1314608/article/details/110128025
显卡对应版本查看
20200702
CUDA error: device-side assert triggered
Assertion t >= 0 && t n classes failed
报以上两个问题的原因是 加载了上一次的模型,而上一次的模型有些数据
没有在现在数据中存在 所以报类别没出现的问题
20200619
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is Fal
https://blog.youkuaiyun.com/quantum7/article/details/89333293
设置os.environ[‘CUDA_VISIBLE_DEVICES’]=‘1‘ 不生效
https://blog.youkuaiyun.com/zhouxiaowei1120/article/details/104131602
20200516
解决ubantu下:RuntimeError: cuDNN error: CUDNN_STATUS_EXECUTION_FAILED
https://blog.youkuaiyun.com/yepeng_xinxian/article/details/95519152
如果没装cudnn或者版本错误会报上面的问题
device = torch.device(‘cuda’ if torch.cuda.is_available() else ‘cpu’)
如果前面的cuda 写成了cpu 会报下面的错误
RuntimeError: Input and parameter tensors are not at the same device, found input tensor at cpu and parameter tensor at cuda:0
装10.0的版本
cuda9.0+cudnn7.0安装教程
1、下载cuda9.0
下载链接:https://developer.nvidia.com/cuda-toolkit-archive
2、安装cuda
安装cuda时,第一次会让设置临时解压目录,第二次会让设置安装目录;
临时解压路径,建议默认即可,也可以自定义。安装结束后,临时解压文件夹会自动删除;
安装目录,建议默认即可;
注意:临时解压目录千万不要和cuda的安装路径设置成一样的,否则安装结束,会找不到安装目录的!!!
选择自定义安装
安装完成后,配置cuda的环境变量;
命令行中,测试是否安装成功;
步骤如下(部分过程图):
安装完成,先查看系统变量,然后添加cuda的系统变量:
查看:
添加系统变量后如下图所示:
测试:
win+R
nvcc -V
nvcc --version
显示cuda版本号9.0 V9.0.176
说明安装成功!
3、cudnn下载
官网下载:https://developer.nvidia.com/rdp/cudnn-archive
4、cudnn安装
解压文件夹,将解压后的文件夹下的文件拷贝到cuda安装目录下,与之相对应的文件夹下。
完成!
5、参考链接:
https://blog.youkuaiyun.com/u010618587/article/details/82940528
https://blog.youkuaiyun.com/weixin_39290638/article/details/80045236
https://blog.youkuaiyun.com/asd136912/article/details/79383161
https://blog.youkuaiyun.com/Eppley/article/details/79297503
https://blog.youkuaiyun.com/u013066730/article/details/84831552
CUDA之nvidia-smi命令详解