英伟达,危!?Pytorch不再需要CUDA!

部署运行你感兴趣的模型镜像

相信对深度学习工作比较熟悉的小伙伴一定对 Pytorch 框架不陌生,开源的深度学习框架,适合研究和开发神经网络模型。

不过只要涉及人工智能的开发,就一定和算力脱不了干系。CUDA 允许开发者利用 NVIDIA GPU 进行通用计算任务,广泛应用于 Pytorch 和 Tensorflow 等深度学习框架的 GPU 加速中。近些年越来越有一种趋势,想玩 AI,你就得用 CUDA,就得买英伟达的 GPU。毕竟一直还没有什么能和 CUDA 掰掰手腕的“同行”出现,英伟达也就基本实现了行业垄断,网上戏称 NVIDIA GPU 提供算力,就犹如AI时代的原油,只要一句话断供,大企业们至少有一半要地震。

图片

不过近日,Pytorch 开发团队官方发文,他们要实现「无 CUDA 计算」,100%使用 OpenAI 的 Triton 语言。

在博客中,开发团队就讨论了使用 Meta 的 Llama3-8B 和 IBM 的 Granite-8B Code 等流行 LLM 模型实现 FP16 推断的方法,其中所有计算都是使用 Triton 语言进行的。

开发团队说到:

为什么要探索使用 100% Triton?Triton 提供了一条途径,使 LLM 可以在不同类型的 GPU(英伟达™(NVIDIA®)、AMD™(AMD®)以及未来的英特尔™(Intel®)和其他基于 GPU 的加速器)上运行。它还在 Python 中为 GPU 编程提供了一个更高的抽象层,使我们能够比使用供应商特定的 API 更快地编写高性能内核。

团队从生成单个 token 的时间进行比较,对于使用基于 Triton 内核的模型,Pytorch 在 Nvidia H100 上将 Llama 和 Granite 的性能提高到 CUDA 内核主导工作流的 0.76-0.78 倍,在 Nvidia A100 上提高到 0.62-0.82 倍。

图片

这次 Pytorch 开发团队的官宣,是否会对英伟达的统治地位造成威胁?还是说,Triton 与 CUDA 之间的差距仍是天堑,无法在短期内得到大规模应用呢?让我们拭目以待。

原文链接:

https://pytorch.org/blog/cuda-free-inference-for-llms/

您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

<think>首先,用户的问题是:“非英伟达显卡能否安装和使用英伟达CUDA?”这是一个明确的查询,基于系统级指令,我需要用中文回答,并确保所有数学表达式使用正确的LaTeX格式。 回顾引用内容: - 引用[1]明确指出,CUDA主要面向Nvidia的GPU,Intel和AMD的显示芯片都不能使用。 - 引用[2][3][4]讨论了在Ubuntu上安装Nvidia驱动、CUDA和cuDNN的步骤,但只针对Nvidia显卡。 - 引用[5]提到Win10上非Nvidia显卡(如Intel集成显卡)使用Anaconda和PyTorch,但PyTorch可以在CPU上运行,不依赖CUDA。 关键点: - CUDA是Nvidia专有的技术,只支持Nvidia GPU。 - 非Nvidia显卡(如AMD或Intel)无法安装或使用CUDA,因为它们没有兼容的硬件架构。 我的回答需要: 1. 结构清晰:逐步解释。 2. 真实可靠:基于引用和常识。 3. 使用中文。 4. 添加引用标识:在相关段落末尾自然地添加,如[^1]。 5. 生成相关问题:在回答后添加“§§相关问题§§”部分。 回答结构: - 引言:直接回答问题。 - 解释原因:为什么非Nvidia显卡不能用CUDA。 - 替代方案:如果用户想用非Nvidia显卡做深度学习,有什么选择。 - 总结。 数学表达式:用户问题中没有数学内容,但如果涉及,确保使用$...$或$$...$$。 生成相关问题: - 基于主题,如替代技术、安装问题等。 最终回答: - 开头:直接说“不能”。 - 理由:CUDA需要Nvidia GPU的特定硬件支持。 - 引用:在关键点添加引用标识。 - 结尾:生成相关问题。</think>### 非英伟达显卡能否安装和使用英伟达CUDA? **直接回答:不能。** CUDA(Compute Unified Device Architecture)是英伟达(Nvidia)开发的专有并行计算平台和编程模型,它**仅支持英伟达自家的GPU硬件**。非英伟达显卡(如AMD显卡或Intel集成显卡)无法安装或使用CUDA,因为它们缺乏必要的硬件架构和驱动程序支持[^1]。下面我将逐步解释原因,并提供一些替代方案。 #### 1. **为什么非英伟达显卡无法使用CUDA?** - **硬件依赖性**:CUDA的核心是英伟达GPU的特定计算单元(如CUDA核心),这些单元在AMD或Intel显卡中不存在。例如,CUDA指令集(如PTX)只能被英伟达GPU识别和执行。非英伟达显卡的硬件设计不兼容CUDA,因此无法运行基于CUDA的代码[^1]。 - **软件限制**:英伟达的驱动程序(NVIDIA Driver)和CUDA Toolkit是专为自家GPU优化的。尝试在非英伟达显卡上安装CUDA会失败,因为安装程序会检测显卡型号,并在非Nvidia硬件上拒绝运行或报错[^3]。引用[1]中明确提到:“Cuda主要是面向Nvidia的GPU的。Intel和AMD的显示芯片都不能进行。” - **实际验证**:如果您在非英伟达系统上运行CUDA安装命令(如`nvcc --version`),系统会返回错误或无法识别指令,这进一步证明了兼容性问题[^3]。 #### 2. **非英伟达显卡的替代方案** 虽然无法使用CUDA,但非英伟达显卡(如AMD显卡或Intel集成显卡)可以通过其他技术进行GPU加速计算,尤其是在深度学习领域: - **ROCm(Radeon Open Compute Platform)**:AMD开发的类似CUDA的开源平台,支持AMD显卡。例如,PyTorch和TensorFlow可以通过ROCm后端运行在AMD GPU上。性能接近CUDA,但需确保显卡型号兼容(如Radeon Instinct系列)[^5]。 - **OpenCL(Open Computing Language)**:跨厂商的并行计算框架,支持AMD、Intel和Nvidia显卡。它不如CUDA高效,但适用于通用计算任务。例如,在PyTorch中可以使用OpenCL后端进行计算。 - **CPU加速**:如果您的显卡不支持GPU加速,可以使用CPU运行深度学习框架(如PyTorch或TensorFlow)。引用[5]指出,Intel或AMD的集成显卡(核芯显卡)虽不适合大型计算,但可通过Anaconda环境在CPU上运行模型。例如: ```python # 在PyTorch中使用CPU模式 import torch device = torch.device("cpu") # 强制使用CPU model = torch.nn.Linear(10, 10).to(device) ``` - **云服务**:如果本地硬件不足,可以考虑使用云平台(如Google Colab、AWS或Azure),它们提供英伟达GPU实例,无需本地安装CUDA。 #### 3. **总结** 非英伟达显卡无法安装或使用英伟达CUDA,因为它依赖于英伟达GPU的专有硬件。如果您需要GPU加速,建议选择ROCm(针对AMD显卡)或切换到英伟达显卡。对于深度学习入门,CPU或云服务也是可行的替代方案。更多安装细节可参考引用资源[^1][^3][^5]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值