笔记本电脑安装cuda10.2并使用pycuda、xgboost测试GPU计算效率(附Colab, Kaggle, BaiduAIStudio性能测试对比)

硬件配置:

机型:机械革命s1,2018年

CPU:i7-8550U

GPU:Nvidia Geforce MX150(满血版),2G显存

内存:单条16g (自己更换的)

软件信息:

CUDA:v10.2.89

Display Driver:441.66

1. 引言

最近做机器学习,想测试一下自己的顶配轻薄本上的MX150独显,相比cpu和集显来讲,到底能有多少提速。因此就有了这次测试。

2. cuda的安装

按照官网guidance走,十分顺利。由于不是本文的重点,就简单讲下。

Guidance有2个:一个是 Quick Start Guide,另一个是 Cuda Installation Guide for Windows

安装步骤第一步更新显卡驱动 为441.66;第二步:安装 Microsoft Visual Studio 2019,Community版本即可,安装时记得勾选C++组件,cuda程序编译时会用到,需要大概7GB硬盘空间;第三步:安装 cuda10.2,显卡驱动已经更新过了记得选自定义安装,然后untick显卡驱动Display Driver,还有Geforce Experience也不是必须的那个是打游戏用的,也可以untick。

不过在做之前要注意一下cuda版本和Display Driver版本,以及MSVC的对应关系:Cuda Toolkit Release Notes,根据自己要装的cuda版本,去选择显卡驱动的版本。

3. 性能测试

3.0 理论值

搜索Google可以查到,

i7-8550u自带的集显UHD 620理论算力应该在 430 GFlops 左右,

<think>我们正在处理用户的问题:如何在不安装CUDA的情况下,在PyCharm中使用GPU运行代码?根据引用内容,通常使用GPU需要安装CUDA(如引用[2]提到ComputePlatform选择CUDA,引用[4][5]提到安装GPU版本的PyTorch需要CUDA)。但是用户要求不安装CUDA。我们分析引用[3]:它使用了`torch.cuda.is_available()`来检查是否有可用的GPU设置device。但前提是已经安装了支持CUDA的PyTorch(即GPU版本)。而安装GPU版本的PyTorch通常需要CUDA环境。然而,有一种可能:PyTorch的GPU版本通常会捆绑一个合适的CUDAToolkit(精简版),所以用户不需要单独安装完整的CUDAToolkit。也就是说,用户只需要安装GPU版本的PyTorch,而不需要单独安装CUDAToolkit。因此,我们可以理解为:用户希望不单独安装CUDAToolkit,但通过安装GPU版本的PyTorch来使用GPU。步骤:1.确保你的电脑有NVIDIAGPU且支持CUDA(可以查看NVIDIA控制面板中的系统信息,看CUDA版本,如果没有,则需要更新驱动,因为驱动会包含基本的CUDA驱动,但不需要单独安装CUDAToolkit)。2.在PyCharm中,创建一个项目设置好Python环境(如使用conda或venv)。3.安装GPU版本的PyTorch。根据引用[5],我们可以直接下载对应CUDA版本的PyTorch的wheel文件,然后通过pip安装(注意选择与你的Python版本和CUDA驱动版本兼容的wheel)。或者,也可以使用PyTorch官网提供的命令。注意:PyTorch官网提供的安装命令通常已经包含了所需CUDA库(精简版),所以不需要单独安装CUDAToolkit。例如,从PyTorch官网(https://pytorch.org/)获取安装命令:选择稳定版本,操作系统,包管理器(pip),语言(Python),计算平台(选择与你的显卡驱动兼容的CUDA版本,比如CUDA11.8)。然后运行它给出的命令。比如,引用[5]中的命令(但注意,这个命令是针对特定版本的,而且需要根据实际情况调整):pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu118或者使用清华源加速(如引用[5]中使用的):pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu118-ihttps://pypi.tuna.tsinghua.edu.cn/simple4.在代码中,通过以下方式检查是否可以使用GPU:importtorchdevice=torch.device('cuda'iftorch.cuda.is_available()else'cpu')print(device)5.如果打印出'cuda',说明可以使用GPU。但是,如果不安装CUDAToolkit(指不单独安装NVIDIA官方的完整CUDAToolkit),那么PyTorch的GPU版本是否能够运行?答案是:只要你的显卡驱动是足够新的(通常需要支持对应CUDA版本的驱动),那么PyTorch自带的CUDA库就可以工作。因此,用户不需要单独安装CUDAToolkit,但需要确保有NVIDIA的显卡驱动,且驱动版本支持PyTorch所需CUDA版本。总结步骤:-更新NVIDIA显卡驱动(建议到最新,或至少支持所需CUDA版本)。-在PyCharm的项目环境中,使用pip(或conda)安装GPU版本的PyTorch(选择与驱动兼容的CUDA版本)。-在代码中设置使用GPU。注意:如果不安装完整的CUDAToolkit,那么你将不能使用nvcc等CUDA编译器,也不能使用CUDASamples等。但对于PyTorch来说,它不需要这些,只需要动态链接库。引用[4]中也提到,可以通过conda安装GPU版本的PyTorch,命令如:condainstallpytorchtorchvisiontorchaudiopytorch-cuda=11.8-cpytorch-cnvidia这也是不需要单独安装CUDAToolkit的,因为conda会安装必要的cudatoolkit库(这个库是CUDAToolkit的精简版,只包含运行所需的库,不包含开发工具)。因此,我们有两种方法(无需单独安装CUDAToolkit):方法1(推荐):使用conda安装(如果使用conda环境)方法2使用pip安装(根据PyTorch官网提供的命令)最后,用户可以在PyCharm中运行代码,通过打印device来确认是否成功使用GPU。注意:如果用户没有NVIDIAGPU,或者显卡驱动太旧,那么即使安装GPU版本的PyTorch,也无法使用GPU。此时,只能使用CPU。因此,我们回答如下:</think>### 在PyCharm中不安装CUDA使用GPU运行代码的方法 要在不单独安装CUDA Toolkit的情况下使用GPU运行PyTorch代码,可以通过以下步骤实现: #### 核心原理 PyTorch的GPU版本**已内置精简版CUDA运行库**,只要满足: 1. 设备有NVIDIA GPU 2.安装兼容的GPU驱动 3. 安装正确的GPU版PyTorch 无需单独安装完整的CUDA Toolkit[^2][^5] --- ### 具体步骤 #### 1. 验证GPU兼容性 在终端执行: ```python import torch print("GPU可用:", torch.cuda.is_available()) # 返回True则支持 print("GPU型号:", torch.cuda.get_device_name(0)) ``` #### 2. 安装GPU版PyTorch 在PyCharm终端执行(根据Python版本调整): ```bash # 适用于Python 3.9 + CUDA 11.8 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 ``` - 关键参数:`cu118` 表示CUDA 11.8版本[^5] - 查看最新版本:[PyTorch官网](https://pytorch.org/) #### 3. 代码中指定GPU ```python import torch # 自动检测GPU device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') print(f"使用设备: {device}") # 将模型和数据转移到GPU model = YourModel().to(device) data = data.to(device) ``` #### 4. 验证GPU使用 运行包含以下监控代码: ```python # 监控GPU使用情况 print(torch.cuda.memory_allocated(device=device)) # 显存占用量 print(torch.cuda.memory_reserved(device=device)) # 缓存显存量 ``` --- ### 注意事项 1. **驱动要求**: - NVIDIA驱动版本需 ≥ 450.80.02CUDA 11.0+) - 通过`nvidia-smi`命令检查驱动版本 2. **环境隔离**: ```bash conda create -n gpu_env python=3.9 # 创建独立环境 conda activate gpu_env ``` 3. **常见问题处理**: - 出现`CUDA not available`:更新NVIDIA驱动 - 出现`torch.cuda.OutOfMemoryError`:减小batch size - 使用清华源加速安装:添加 `-i https://pypi.tuna.tsinghua.edu.cn/simple`[^5] --- ### 备选方案:云GPU服务 若本地GPU不满足要求: 1. Google Colab:提供免费GPU资源 2. AWS/Azure:按需付费的GPU实例 3. Lambda Labs:专为深度学习优化的GPU云 > **重要提示**:此方法仅适用于PyTorch/TensorFlow等框架。若需编译CUDA C++代码,仍需完整安装CUDA Toolkit[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值