wsl使用实践

本文介绍了在Windows上启用和安装WSL(Windows Subsystem for Linux)的过程,特别是20.04.1版的安装,并分享了使用后的感受。作者指出内核版本较旧可能导致权限问题,且WSL1无法完全替代虚拟机,但表示WSL2可能有所改善。

安装步骤

前置条件

  1. 打开开发者选项
    启动或关闭windows功能中选择

  2. 打开虚拟机选项
    启动或关闭windows功能中选择,如下图

  3. 允许使用 windows支持linux功能
    启动或关闭windows功能中选择

在这里插入图片描述
4. windows store安装wsl

我升级的是20.04.1 , 20.04.4升级失败没有找到原因,ubuntu 版本没有尝试,看时间比22.04.1晚,后面尝试。
在这里插入图片描述
5. 启动
在这里插入图片描述

使用感受

  1. 内核版本是4.4,有点老,可能晚点的版本 kernel会高点吧
  2. 存在权限问题,同样的编译脚本在虚拟机中没有问题,在wsl里面编译没有权限失败
  3. 和纯虚拟的linux存在差距,dmesg 打印如下
    在这里插入图片描述
  4. wsl1 适合在windows下使用linux命令,无法替代虚拟机。ps:wsl2 还没尝试,可能可以解决这个问题
### 如何在WSL使用本机显卡进行加速 #### 配置概述 为了使 Windows Subsystem for Linux (WSL) 能够利用主机的 GPU 进行计算,需要完成一系列配置步骤。这些步骤涉及安装 NVIDIA 的驱动程序、启用 WSL 对 GPU 的支持以及设置必要的开发工具和库。 --- #### 安装并更新 WSLUbuntu 首先,在 Windows 上确认已安装最新版本的 WSL 并启用了其功能。可以通过 PowerShell 执行以下命令来检查当前状态: ```powershell wsl --list --verbose ``` 如果尚未安装 Ubuntu 或其他发行版,则可以运行 `wsl --install` 来自动安装最新的默认发行版[^1]。 接着启动新安装的 Ubuntu 子系统,并通过以下命令确保系统的软件包是最新的: ```bash sudo apt update && sudo apt upgrade -y ``` --- #### 启用 WSL2 中的 GPU 支持 要实现 GPU 访问,需先验证硬件兼容性和驱动情况。NVIDIA 提供了详细的文档说明如何开启此功能[^2]。具体操作如下: 1. **安装适用于 WSL 的 NVIDIA CUDA 驱动** 在 Windows 系统上访问 [NVIDIA 官方网站](https://developer.nvidia.com/cuda/wsl/download),下载针对 WSL 设计的专用驱动程序。安装完毕后重启计算机以应用更改。 2. **测试基础 GPU 功能** 输入以下指令查看是否成功检测到设备: ```bash nvidia-smi ``` 如果显示正常的信息表单则表明初步连接无误;否则可能需要重新核查驱动版本或者 BIOS 设置等问题。 --- #### 下载与配置 CUDA 工具链 对于深度学习框架或其他高性能运算需求的应用场景来说,还需要额外引入完整的 CUDA 开发套件及其关联组件。 - 依据目标平台选取合适的 CUDA 版本号(例如这里提到的是 v11.1),前往[NVIDIA CUDA Toolkit Archive](https://developer.nvidia.com/cuda-toolkit-archive)[^3]获取对应链接地址。 - 解压文件至指定目录之后调整环境变量路径以便后续调用方便快捷: ```bash echo 'export PATH="/usr/local/cuda-11.1/bin:$PATH"' >> ~/.bashrc source ~/.bashrc ``` --- #### 构建 PyTorch 及 TensorFlow 的 GPU 加速环境 除了上述通用准备工作之外,某些特定领域内的项目往往依赖于专门优化过的机器学习框架实例化过程。以下是关于构建基于 Python 的科学计算生态系统的指导方针之一——即围绕 PyTorch 展开讨论的部分细节描述[^4]: 1. **满足前置条件** 利用 APT 包管理器预先安装备份所需的图形渲染引擎接口及相关头文件集合: ```bash sudo apt-get install freeglut3-dev build-essential libx11-dev \ libxmu-dev libxi-dev libgl1-mesa-glx libglu1-mesa libglu1-mesa-dev ``` 2. **创建虚拟工作区** 推荐采用 Conda/Virtualenv 方法隔离不同项目的依赖关系冲突风险。此处仅列举 pip 方式的简单示范代码片段作为参考模板: ```bash python3 -m venv wsl_gpu_env source ./wsl_gpu_env/bin/activate pip install torch torchvision torchaudio cudatoolkit==11.1 -f https://download.pytorch.org/whl/torch_stable.html ``` 3. **验证最终成果** 编写一小段脚本来检验整个流程是否顺利完成预期效果展示: ```python import torch if __name__ == "__main__": device = "cuda" if torch.cuda.is_available() else "cpu" print(f"Using {device} device.") model = torch.nn.Linear(10, 5).to(device) input_tensor = torch.randn((1, 10)).to(device) output_tensor = model(input_tensor) print(output_tensor.detach().cpu()) ``` --- #### 总结 综上所述,从基本的操作系统层面准备起步直至深入探讨高级别的应用程序集成实践案例分析为止,本文全面覆盖了有关如何充分利用现有物理资源提升效率的知识要点。希望以上内容能够帮助读者顺利搭建属于自己的高效能计算平台! ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值