windows上配置本地深度学习工作站

前言

搞深度学习两年了,所有代码都是在服务器上写的,导致到现在都没有一个本地深度学习工作站。这次碰上服务器坏了又坏,终于下定决心,在windows上配置本地深度学习工作站。整体配置顺序如下(*表示可选):

  • 安装Anaconda
  • 创建python环境
  • 安装Jetbrains Toolbox*
  • 安装Pycharm Professional/Community
  • 安装cuda
  • 安装cudnn
  • 安装pytorch*
  • 配置环境变量*
  • 激活powershell的base环境*

下面按照这个顺序简单介绍下

1. 安装Anaconda

按照官网给出的教程安装即可,过程中没有遇到什么bug。最后我把anaconda放在了D盘下,路径为D:\anaconda3

2. 创建python环境

打开Anaconda Prompt,这样打开后就直接进入到自动安装的base环境了

如果是打开cmd,那么首先要输入activate,这样才能激活base环境

可以选择直接用base环境,pip install需要的包就可以

也可以选择额外创建环境。这里使用指定路径的创建方式,方便之后定位:

conda create --prefix="D:\env\pt" python=3.6.3

然后激活:

conda activate D:\env\pt

然后再pip install需要的包

3. 安装Jetbrains Toolbox

直接在官网下载exe文件后再运行即可,安装过程非常快,很方便。可以选择语言为中文

此步骤是可选的,Toolbox就是集合Pycharm Community、Pycharm Professional等的工具包。根据我的使用习惯来说,先下载Toolbox再安装Pycharm更方便

4. 安装Pycharm Professional/Community

安装好Toolbox后,直接打开在Toolbox中点击安装Pycharm即可
在这里插入图片描述

这里可以选择Pycharm Community,但我还是觉得Professional更方便

5. 安装cuda

6. 安装cudnn

cuda和cudnn的安装参考知乎上一个教程,按照这个步骤下来也没遇到什么问题。需要注意的是,彼时cuda最新的版本已经是CUDA 11.8,然而pytorch可以适配的最高版本只是CUDA 11.6。目前来说,想搞深度学习的话,pytorch大概率是要用到的,所以在官网上选择了CUDA 11.6版本进行下载

这里插一句,由于我在安装cuda的过程中没有安装驱动,因此在查看cuda版本的时候,通过nvcc --versionnvidia-smi命令查看的版本是不一样的,前者显示11.6,后者显示11.4。至于原因是什么,可以参考这个博客

7. 安装pytorch

选好cuda版本,直接用官网给出的命令即可安装成功

pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

很神奇,之前在服务器上,安装pytorch的命令总出问题,这次竟然一次成功

虽然安装成功,但后续在跑代码的过程中,报了AssertionError: Torch not compiled with CUDA enabled的错误,于是只能重新安装

最后我使用的是离线安装的手段,先在官网下载了cu113(至于为什么是cu113,是因为我的cuda版本显示了11.6和11.4两种,网上说cuda11.4时安装cu113的torch版本时成功的)的对应torch版本torch-1.10.0+cu113-cp36-cp36m-win_amd64.whl(使用cp36还是其他的是由电脑决定的,具体参考博客),然后跳转到下载位置目录,使用pip install --user ×××.whl命令,安装成功(如果下载的torch版本和本机不对应,会报错)。这里的离线下载参考了博客,报错参考了博客

8. 配置环境变量

这一步主要是为了下一步powershell可以自由激活python环境而准备的,参考csdn回答

9. 激活powershell的base环境

因为pycharm professional中的终端是powershell,所以需要额外搞这一步,如果觉得没用可以跳过。同样是参考csdn回答。配好之后就可以在powershell中通过activate命令激活base环境了,与cmd一样

总结

结束~整个过程大概会花费将近3h吧。整体来说配置过程还是很顺利的,后悔当初一直怕麻烦,没有搭建本地深度学习工作站。当然,windows上的显卡只是1650,运行很多项目还是太慢了,所以本地工作站主要用来写代码和简单的调试,真正跑实验和结果还是要去服务器。当然,也有比较两全其美的办法,就是个人拥有3090、4090之类的大显卡,目前本人正在筹备嘿嘿

### Windows 11专业工作站配置和设置指南 #### 一、操作系统的选择依据 对于高性能计算和数据处理等领域而言,相较于普通版本的操作系统,专业工作站版能提供更佳的支持与性能优化。因此,在考虑构建用于此类目的的工作站时,应优先考量Windows 11专业工作站版[^1]。 #### 二、硬件准备 为了确保能够顺利安装并高效运行Windows 11专业工作站版,需注意以下几点关于硬件的要求: - **处理器**:需要支持TPM 2.0以及虚拟化技术的现代CPU; - **内存**:至少16GB RAM,推荐更高容量以适应大型应用或多任务处理; - **存储设备**:快速SSD作为启动盘可以显著提升系统的响应速度; - **图形适配器**:如果计划从事深度学习或其他依赖GPU的任务,则应当配备具备强大算力和支持DirectX 12 Ultimate特性的独立显卡,并提前确认该型号是否兼容最新的NVIDIA驱动程序[^2]。 #### 三、软件环境搭建 完成上述准备工作之后,接下来便是着手于必要的软件组件部署: ##### (一)安装NVIDIA GPU驱动 针对配备了NVIDIA显卡的情况,按照官方文档指示下载对应操作平台下的最新稳定版驱动包,并依照提示逐步执行安装流程。此过程不仅有助于激活显卡应有的功能特性,同时也为后续CUDA工具链及其他相关框架提供了基础支撑[^4]。 ```bash sudo apt-get update && sudo apt-get install nvidia-driver-xxx # 替换'xxx'为具体版本号 ``` ##### (二)配置CUDA开发环境 鉴于目标应用场景涉及到了深度学习模型训练等工作负载,故而有必要引入由英伟达公司推出的平行运算平台——CUDA Toolkit。通过指定合适的镜像标签来拉取预置有相应库文件的基础容器映像,进而简化本地编译环节中的诸多繁琐步骤。 ```dockerfile FROM nvidia/cuda:11.x-cudnn8-devel-ubuntu20.04 WORKDIR /workspace COPY . . RUN pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu11x CMD ["python", "main.py"] ``` > 注解:以上示例采用了基于Ubuntu LTS发行版定制而成的Docker Image,实际项目可根据自身情况调整底层数字及附加组件列表。 #### 四、安全性和稳定性维护 定期更新至微软发布的累积补丁集,保持内核层面的安全防护机制处于启用状态;同时利用内置的应用商店获取经过认证的质量插件和服务扩展,减少潜在风险暴露面的同时提高整体用户体验感。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值