win10+Anaconda3+tensorflow(gpu)+cuda9.0+cudnn7.1+ide(sublime)+好用的科学工具包配置

本文介绍如何搭建PyTorch与CUDA相结合的开发环境,包括Anaconda、CUDA、cuDNN的安装配置,以及如何测试GPU是否正确安装。此外还介绍了Sublime Text的使用技巧和一些常用科学计算包的安装方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

博主现在使用的是PyTorch1.0+CUDA10.1(cudnn)+win10(GPU)+Jupyter(如何优雅使用Jupyter)开发环境(Anaconda3.5)


1、下载科学工具包(类似jdk、sdk的东东)

Anaconda3选取电脑对应的系统,建议下载3的最新版本

②在环境变量中再添加Scripts地址 样例如下

下载之后基本上常用的科学工具包都会有

比较常用的numpy、matplotlib、scikit-learn、pandas、OpenCV

 

2、下载cuda:CUDA Toolkit 9.0 Downloads

cuda是nvida公司开发的运算平台,显卡比较好的同学请使用~

注意按照我给的版本下载 我给的是测试了n次好用并且能和cudnn适配的版本 其他版本坑比较多

 

3、cuDNN:cuDNN

cuDNN是nvida开发的深度神经网络的GPU加速库

注意了是library,所以下载后需把目录下的/bin配置到环境变量中

看清楚数字 下载win10版本

 

4、GPU CPU

想必听的比较多了。

CPU为中央处理器,GPU为图形处理器。

GPU的核远超CPU,所以计算能力强,但不代表能比CPU在复杂性的分布式计算等方面会更好。

其中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。

通俗说:

CPU 力气大啥P事都能干,还要协调。

GPU 上面那家伙的小弟,老大让他处理图形,这方面处理简单,但是量大,老大虽然能处理,可是老大只有那么几个兄弟,所以不如交给小弟处理了,小弟兄弟多,有数百至数千个,而且是专门只干这行和只能干这行。

 

5、测试GPU版本

弄好后进入命令行 下载几个东东:

1、activate tensorflow 进入gpu环境

pip install tensorflow-gpu

2、测试:

①activate tensorflow进入gpu模式

②导入import tensorflow as tf

③测试:sess = tf.Session()

 

 

6、CUDA和cuDNN

CUDA(Compute Unified Device Architecture),是英伟达公司推出的一种基于新的并行编程模型和指令集架构的通用计算架构,它能利用英伟达GPU的并行计算引擎,比CPU更高效的解决许多复杂计算任务。

 

CuDNN用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。

支持的算法

  1. 卷积操作、相关操作的前向和后向过程。
  2. pooling的前向后向过程
  3. softmax的前向后向过程
  4. 激活函数的前向后向过程 
    • ReLU
    • sigmoid
    • TANH
  5. Tensor转换函数,其中一个Tensor就是一个四维的向量。

#一些常见概念:

 

  1. 主机 
    将CPU及系统的内存(内存条)称为主机。
  2. 设备 
    将GPU及GPU本身的显示内存称为设备。
  3. 线程(Thread) 
    一般通过GPU的一个核进行处理。(可以表示成一维,二维,三维,具体下面再细说)。
  4. 线程块(Block) 
    1. 由多个线程组成(可以表示成一维,二维,三维,具体下面再细说)。 
    2. 各block是并行执行的,block间无法通信,也没有执行顺序。 
    3. 注意线程块的数量限制为不超过65535(硬件限制)。
  5. 线程格(Grid) 
    由多个线程块组成(可以表示成一维,二维,三维,具体下面再细说)。
  6. 线程束 
    在CUDA架构中,线程束是指一个包含32个线程的集合,这个线程集合被“编织在一起”并且“步调一致”的形式执行。在程序中的每一行,线程束中的每个线程都将在不同数据上执行相同的命令。
  7. 核函数(Kernel) 
    1. 在GPU上执行的函数通常称为核函数。
    2. 一般通过标识符__global__修饰,调用通过<<<参数1,参数2>>>,用于说明内核函数中的线程数量,以及线程是如何组织的。
    3. 以线程格(Grid)的形式组织,每个线程格由若干个线程块(block)组成,而每个线程块又由若干个线程(thread)组成。
    4. 是以block为单位执行的。
    5. 只能在主机端代码中调用。
    6. 调用时必须声明内核函数的执行参数。
    7. 在编程时,必须先为kernel函数中用到的数组或变量分配好足够的空间,再调用kernel函数,否则在GPU计算时会发生错误,例如越界或报错,甚至导致蓝屏和死机。

 

7、sublime

最近是pcharm到期了重新申请。

但是发现sublime出奇的好用,想必大家电脑都会装,这里给一些比较好用的插件。

分享知乎上的一个问题:

怎么用sublime text 3搭建python 的ide?

 

8、一些包OpenCV

pip命令不好使 去官网下个轮子

用命令行cd到文件然后pip install 文件名

 

9、xgboost

不多说 神器 建议找视频多看看

下载这个之前先下载个git 一路安装完

找个文件夹 git bash here

 

git clone --recursive https://github.com/dmlc/xgboost

 

git init
git submodule init
git submodule update
alias make='mingw32-make'
cp make/mingw64.mk config.mk; make -j4

这里可能会报错,因为没有mingw64,下载地址,注意选系统

重新输入

cp make/mingw64.mk config.mk; make -j4

运行成功需要等一会 重新进入一次打开git bash 逐行输入

which mingw32-make
alias make='mingw32-make'
cd dmlc-core
make -j4
cd ../rabit
make lib/librabit_empty.a -j4
c ..
cp make/mingw64.mk config.mk
make -j4
cd python-package
python setup.py install

 

大功告成

 

打开cmd输入conda list

好吧最近xgboost又更新到了0.71

所有比较麻烦需要配置的东东都在这里啦~

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值