2.1 建立工程
点击文件-新建项目;
(1)选择项目名称和位置。
(2)配置解释器选择自定义环境,选择Conda环境(好奇下面几种环境的区别,留个坑),Conda路径如果之前创建过Conda环境就会自动出现,如果没有,需要手动选择,选择conda.bat文件,也就是如下路径的文件D:\annaconda\condabin\conda.bat ,即Annaconda文件夹下面condabin文件夹下的conda.bat文件;
发现即使是创建新的虚拟的conda环境,conda路径都是相同的,这并不意外,在1.3小节中我们提到,在所有的虚拟环境中,使用的都是同一个conda命令,只是在安装包的过程中会自动选择安装的目的地。

创建完成后,自动出现pycharm界面,观察导航栏的左侧,有RNN和外部库,这里RNN就是我们项目创建的位置,右击鼠标,新建python文件可以新建.py,就是写代码的位置。外部库就是我们刚刚创建的Conda虚拟环境,可以看见虚拟环境的具体位置。

这个虚拟环境建立在Anaconda/envs的文件夹中

2.2 配置环境
由于学习的是《动手学深度》这本书,书中需要的代码都可以在网站上获得:
《动手学深度学习》 — 动手学深度学习 2.0.0 documentation,书的前章介绍了如何配置这本书需要的环境,这里根据书上的需要展开配置,
(1)Python解释器:3.9版本;
(2)安装深度学习框架:安装Pytorch的GPU或者CPU版本(Pytorch就是深度学习框架的一种);
在安装之前,请先检查计算机上是否有可用的GPU。 例如可以查看计算机是否装有NVIDIA GPU并已安装CUDA。 如果机器没有任何GPU,没有必要担心,因为CPU在前几章完全够用。 但是,如果想流畅地学习全部章节,请提早获取GPU并且安装深度学习框架的GPU版本。可以在任务管理器-性能查看自己是否有GPU。
(3)安装d2l包,方便调取书中常用的函数和种类;
具体步骤如下:
(1)创建一个新的环境,命名为d2l的环境,并激活这个环境。添加Python解释器,选择conda环境,并命名为d2l,选择解释器版本3.9。

(2)安装Pytorch的CPU或者GPU版本:打开anaconda prompt,激活d2l环境:conda activate d2l:

在网站上可以选择性下载深度学习框架,安装 — 动手学深度学习 2.0.0 documentation,不同的框架都有下载的命令,可以从任务管理器中查看自己是否有GPU,我有GPU,所以选择第二条命令下载。安装完成后会出现下面的语句。


下一步是安装d2l包,以方便调取本书中经常使用的函数和类:

2.2.1 深度学习框架
Python 深度学习框架常见的有7种:Theano、Lasagne、Blocks、TensorFlow、Keras、MXNet、PyTorch,深度学习的框架提供神经网络单元、损失函数还有优化器,用来帮助我们组装和训练神经网络。不过我只听过PyTorch(读法是P+Y+torch)和Tensorflow,也是最受关注的两个框架,应该如何选择呢?书中选择了Pytorch,这里我们从这两个框架的训练时间、内存使用、易用性、应用前景,对比一些这两种框架的区别。下图左边是Pytorch,右边是Tensorflow

Tensorflow是由谷歌支持的开源框架,目前最新版本是2.5.0,Tensorflow2.0专注于简洁性,相对于1.x版本陡峭的学习曲线,2.0入门深度学习难度大大降低。在训练方面,使用tf.keras和eager execution构建模型,为研究提供强大的实验工具。
在部署方面,Tensorflow可以在任意平台上实现稳健的生产环境模型部署,不论是在服务器、边缘设备还是网页上,也不论你使用的是什么语言或平台,TensorFlow 总能让你轻易训练和部署模型。
在数据可视化方面,TensorFlow提供了TensorBoard可视化工具,可以形方式可视化数据。它还允许对节点进行简单调试,查看代码的执行情况,帮助解决神经网络问题。
硬件支持上,TensorFlow 在 GPU 和 CPU 系统中使用不同的分配策略。TensorFlow 还可以使用 TPU,其计算速度比 GPU和 CPU 快
PyTorch是一个能在CPU和GPU上运行并解决各类深度学习问题的深度学习框架。可以将其看做是支持GPU计算和自动微分计算的Numpy库。PyTorch是一个灵活、容易学习Python库,在学术和研究领域 PyTorch 是最受欢迎的深度学习库。
2.2.2 什么是GPU、CPU、CUDA
PyTorch 提供了多个版本,其中包含是否支持 CUDA 的选项。具体来说:(1)CPU-only 版本:这个版本的 PyTorch 不依赖于任何 GPU 加速库(如 CUDA),只能运行在 CPU 上。(2)CUDA 支持版本,调用CUDA的一些函数,完成对GPU的调度。
GPU的英文全称Graphics Processing Unit,图形处理单元。GPU和显卡的关系,就像是CPU和主板的关系。前者是显卡的心脏,后者是主板的心脏。显卡不仅包括GPU,还有一些显存、VRM稳压模块、MRAM芯片、总线、风扇、外围设备接口等等。CPU和GPU都是运算的处理器,在架构组成上都包括3个部分:运算单元ALU、控制单元Control和缓存单元Cache。但是,三者的组成比例却相差很大。
在CPU中缓存单元大概占50%,控制单元25%,运算单元25%;在GPU中缓存单元大概占5%,控制单元5%,运算单元90%。
CUDA(Compute Unified Device Architecture)
CUDA是 NVIDIA(英伟达)推出的一种并行计算平台和编程模型,能把复杂的计算任务(比如矩阵乘法、神经网络运算)翻译成GPU能理解的指令。没有CUDA,GPU只能处理简单的图形渲染,无法参与深度学习的计算。安装CUDA需要有NvidiaGPU。然后才能去NVIDIA的官网下载CUDA并安装。
cuDNN
cuDNN 是专门为深度学习优化的“外挂包”,它基于 CUDA 开发,针对神经网络的关键操作(如卷积、池化层)做了极致优化
2.2.3 d2l包是什么,有什么
根据我们之前学习的,安装的第三方的包,都应该在当前虚拟环境的site-package中,site-package在Lib文件夹中,可以看到d2l只有5个.py的文件。里面的torch和深度学习框架的torch不是一个东西。

2.3 安装CUDA
参考下面这篇文章,我没有NAVIDA GPU,无法继续,等博主换了高级显卡再更新这里吧。
(3 封私信 / 80 条消息) 【保姆级】Windows 安装 CUDA 和 cuDNN - 知乎
2.3.1硬件的兼容性
确认显卡为 NAVIDA GPU。(通过快捷键 Win + R 唤出"运行",输入"control /name Microsoft.DeviceManager"唤出「设备管理器」,点击「显示适配器」查看是否有 NVIDIA 字样。

1809

被折叠的 条评论
为什么被折叠?



