时隔六年,OpenAI再次发布开源模型gpt-oss-120b,全网狂欢

在这里插入图片描述

一、gpt-oss开源模型

奥特曼发布了两款开源模型gpt-oss-120b 和 gpt-oss-20b。

oss是 Open Source(开源) 的缩写。这意味着OpenAI打算把这款引擎的“设计图纸”和“核心零件”公之于众!

就像可口可乐公开了他们的配方,任何人都可以根据这个配方去尝试制作自己的可乐,甚至进行改良,开发出“樱桃味”或者“香草味”的可乐。

谁给你的勇气?难产的GPT-5,还是贵如黄金的Claude Opus 4.1?

120b,这两个数字和字母代表了模型的“尺寸”和“马力”。

这里的“b”是“Billion”(十亿),指的是模型的参数数量。数量越多,通常意味着模型更聪明、知识更渊博、能力更强。

gpt-oss-120b (1200亿参数模型)的性能非常接近甚至可能媲美当前顶尖的闭源大模型,能处理非常复杂的推理、创作和对话任务。

gpt-oss-20b (200亿参数模型),虽然参数量小一些,但200亿参数的规模已经远超很多市面上的开源模型,对于绝大多数任务来说都绰绰有余。

在这里插入图片描述

二、开源模型的里程碑突破

OpenAI 的开源模型 GPT-OSS-120b 正在打破付费与开源的性能鸿沟。

💪 全方位接近顶级水平

  • Codeforces 编程:2622 分,表现超越所有其他开源模型
  • MMLU 学术测试:90% 准确率,仅比 o3 低 3.4%
  • HLE人类终极考试:19% 的准确率,甚至超过了 OpenAI 自家的顶级付费模型o4-mini(17.7%)
  • AIME 数学竞赛:97.9% 准确率,与 o3 仅差 0.8%

三、主要更新和特点

1、全新架构

两个模型均采用 Transformer 架构,结合混合专家(Mixture-of-Experts, MoE)设计,通过仅激活部分参数来提高效率。以下是具体参数对比:

模型总参数量每次激活参数内存需求上下文窗口基准测试对比
gpt-oss-120b1170 亿51 亿80GB128,000 令牌接近 o4-mini,19% 在 Humanity’s Last Exam
gpt-oss-20b210 亿36 亿16GB 或更多128,000 令牌类似 o3-mini,数学和编码任务表现突出

gpt-oss-120b:设计用于生产环境和高推理需求任务,如复杂数学问题、编码和 STEM 领域知识。它在核心推理基准测试中接近 OpenAI 的 o4-mini 模型表现,特别是在 Codeforces、MMLU、HLE 和 TauBench 上表现优于 o3-mini,并在 HealthBench、AIME 2024 和 2025 上超过 o4-mini。需要 80GB 内存,适合在单高性能 GPU(如 H100)上运行。

gpt-oss-20b:针对低延迟和本地化或专业化用例设计,可在边缘设备上运行,仅需 16GB 内存,适合消费级硬件如笔记本电脑或手机。其性能与 o3-mini 相当,尤其在数学和编码任务上表现突出,适合快速迭代和本地推理。

2、架构创新

  1. 内置链式思考(CoT)能力,提供完整的推理过程,便于调试和增强用户对输出的信任。
  2. 工具使用能力,包括函数调用、网页搜索、Python 代码执行等代理功能,增强了自动化和集成能力。
  3. 媲美付费模型的上下文长度,128,000 令牌的上下文长度支持处理超长输入或对话,显著优于许多现有模型。
  4. 采用 Apache 2.0 许可证,完全开源,可商用

3、兼容性

完全兼容OpenAI的API接口,所以如果你之前用过他们的闭源模型,切换起来很顺手。它们是纯文本模型,不处理图像或声音,但速度快、延迟低,适合实时应用。

在这里插入图片描述

四、gpt-oss-120b大战Qwen3 Thinking

GPT-OSS作为OpenAI刚开源的模型,最大亮点就是推理能力强。它能像人类一样"展示思考过程",不只给答案,还会解释怎么得出的。

Twitter知名博主Akshay Pachaar第一时间做了一个测试,对比了GPT-OSS和目前开源社区中表现优秀的推理模型Qwen3 Thinking。

通过这种对比测试,开发者可以了解GPT-OSS在复杂逻辑推理任务上的实际表现,判断是否适合自己的应用场景。

GPT-OSS对比Qwen3 Thinking

国内直接使用gpt-oss-120b

谷歌浏览器访问:www.nezhasoft.cloud

私信哪吒,备注体验ai,领取体验码。

还包含了ChatGPT4o、o4-mini-high、o3、GPT4.5、GPT4.1、Claude Sonnet 4、Gemini 2.5 Pro、Grok4、DeepSeek R1 0528等模型。

GPT-5也会第一时间同步更新。

在这里插入图片描述

五、gpt-oss-120b性能实测

1、写作

全国二卷作文题目:“梦的赠予”

材料内容: “昨夜闲潭梦落花”“我欲因之梦吴越”“铁马冰河入梦来”……梦往往以一种独特的方式呈现我们的感受和期冀,为我们打开更浩瀚的天空。我们也常常向别人讲述自己的梦,用文字记录自己的梦,以行动实现自己的梦。

如果有一天,我们能够将梦赠予他人……

写作要求: 以上材料引发了你怎样的联想和思考?请写一篇文章。要求选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。

在这里插入图片描述

2、读取文件

读取文件内容,总结一份学术论文大纲,通俗易懂,2000字,中文
在这里插入图片描述

3、编码

用户在秒杀页面疯狂点击“立即购买”,系统必须高效且线程安全地减少商品库存,防止超卖。如何在高并发场景下安全扣减库存?

在这里插入图片描述

<think> 嗯,用户想了解在Windows系统下用Ollama部署GPT-OSS模型的详细步骤。之前回答过类似问题,但这次需要更聚焦Windows环境。 用户引用的资料很全面,引用4提到GUI操作适合新手,引用1强调硬件要求,这些都很关键。需要特别注意几个技术点:Windows环境变量设置容易出错,Ollama的system tray图标操作可能被用户忽略,还有模型选择时的命名规范问题。 硬件要求这块要重点说明,因为引用1和4都提到12.4GB模型,但没说显存和内存的具体比例。根据经验,20B模型至少需要16GB内存+8GB显存组合才能流畅运行,这个必须明确告知用户。 部署流程需要拆解得更细致:比如环境变量设置应该放在下载Ollama之后,模型下载前必须检查存储空间。常见问题部分特别增加"GPU未调用"的解决方案,因为很多用户会卡在这步。 考虑到用户可能中途中断操作,专门补充了"部署检查清单",把引用5的隐私优势转化成具体操作建议,比如建议关闭网络连接做本地验证测试。 最后生成的问题既要覆盖延伸需求(如企业部署),也要包含可能的补救措施。特别增加Docker选项是因为引用5提到企业应用场景,但用户当前问题没涉及这个层面。 </think> 了解在Windows系统下部署OpenAI开源模型**GPT-OSS**(如20B版本)结合**Ollama**的完整流程及关键要点如下: --- ### **一、部署前准备** 1. **硬件要求** - **显存**:≥8GB(推荐RTX 30系列及以上GPU) - **内存**:≥16GB(20B模型需预留13GB存储空间)[^4] - **存储空间**:≥15GB可用空间(模型+环境) 2. **软件依赖** - 安装最新版 [Ollama Windows客户端](https://ollama.com/download) - 更新NVIDIA显卡驱动(需支持CUDA 12.0+)[^2] --- ### **二、详细部署步骤** #### **步骤1:安装Ollama** 1. 下载Ollama安装包并完成安装 2. 启动Ollama,系统托盘会出现鲸鱼图标(运行状态) #### **步骤2:拉取模型** - **新手推荐(GUI操作)**: 1. 打开Ollama应用 → 顶部菜单选择"gpt-oss:20b" 2. 在聊天框输入问题(如"Hello")→ 自动触发模型下载(约12.4GB)[^4] - **命令行操作**: ```bash ollama run gpt-oss:20b ``` #### **步骤3:验证部署** ```bash # 测试模型响应 >>> 你好,GPT-OSS! # 预期返回结构化响应,例如: {"response": "你好!我是OpenAIGPT-OSS模型,很高兴为你服务。"} ``` --- ### **三、优化与高级配置** 1. **性能加速** - 启用GPU加速:在Ollama设置中勾选"Use GPU"(需NVIDIA RTX显卡)[^2] - 调整并行线程数:编辑启动参数 `set OMP_NUM_THREADS=8` 2. **模型特性应用** - **结构化输出**:添加指令 `[格式:JSON]` 强制返回JSON - **工具调用**:通过 `{"action": "tool_name", "params": {...}}` 触发Agent工作流[^3] --- ### **四、常见问题解决** | 问题现象 | 解决方案 | |-------------------------|------------------------------| | 下载模型卡顿 | 更换镜像源 `ollama serve --mirror https://your-mirror` | | GPU未调用 | 检查CUDA环境变量 `PATH` 包含CUDA路径 | | 内存不足报错 | 换用小模型 `gpt-oss:7b` 或增加虚拟内存 | --- ### **部署检查清单** [^5] - [ ] Ollama版本 ≥ v0.1.25 - [ ] 显卡驱动支持CUDA 12+ - [ ] 存储空间 >15GB - [ ] 防火墙放行Ollama端口(默认11434) > 提示:企业部署建议开启 **本地数据加密**,避免敏感数据外传[^5]。 --- ### **技术优势与场景** - **隐私安全**:完全本地运行,无数据上传风险 - **商用免费**:Apache 2.0许可证支持商业用途[^2] - **低延迟响应**:适合实时Agent任务(如数据分析、文档处理)[^3] 如需企业级集群部署方案或Docker集成技巧,可进一步探讨。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

哪 吒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值