你只需要24GB 的内存,除非你的GPU自带VRAM,否则需要相当的耐心。
上周,OpenAI发布了两款流行的开放权重模型,均名为gpt-oss。由于你可以下载它们,因此可以在本地运行。
轻量版模型gpt-oss-20b有210亿个参数,需要大约16GB的可用内存。较大版模型 gpt-oss-120b有1170亿个参数,需要80GB的内存才能运行。相比之下,像DeepSeek R1这样的前沿模型拥有6710亿个参数,需要大约875GB的内存才能运行,因此LLM开发者及合作伙伴正在尽快构建大型数据中心。
除非你运行的是高端AI服务器,否则可能无法在家用系统上部署gpt-oss-120b,但许多人拥有运行gpt-oss-20b所需的内存。你的计算机需要至少配备16GB专用VRAM的GPU,或者24GB 或更多的系统内存(至少留出8GB供操作系统和软件使用)。性能将在很大程度上取决于内存带宽,因此配备GDDR7或GDDR6X内存(1000+ GB/s)的显卡其性能将远胜过普通笔记本电脑或台式机的DDR4或DDR5(20 - 100 GB/s)。
下面,我们将讲解如何在Windows、Linux和macOS上免费使用这款新的语言模型。我们将使用Ollama,这个免费的客户端应用程序使得下载和运行该LLM变得轻而易举。
如何在Windows上运行gpt-oss-20b?
在Windows上运行新的LLM很简单。为此,先下载并安装Windows版Ollama。
打开Ollama 后,你会看到一个标记为“发送消息”的字段,右下角会显示一个可用模型的下拉列表,使用gpt-oss:20b作为默认模型。你可以选择另外的模型,但不妨使用这个模型。
输入任意提示。我先输入“Write a letter”(写一封信),Ollama开始下载12.4GB的模型数据。下载速度并不快。
本地运行gpt-oss-20b LLM的指南

最低0.47元/天 解锁文章
651

被折叠的 条评论
为什么被折叠?



