OpenAI 开源模型被 Meta 研究员“逆改”!只动0.3%参数,gpt-oss-20B 解锁无约束基座

OpenAI在8月初发布了开放权重模型家族gpt-oss,这是公司自2019年GPT-2以来首次真正意义上的开源动作。仅仅两周后,一位研究者就将这一模型“拆解重组”,推出了与官方版本迥异的变体。

OpenAI在8月初发布了开放权重模型家族gpt-oss,这是公司自2019年GPT-2以来首次真正意义上的开源动作。

仅仅两周后,一位研究者就将这一模型“拆解重组”,推出了与官方版本迥异的变体。

康奈尔大学博士生、前Google Brain成员、现任Meta研究员的Jack Morris,公开了名为gpt-oss-20b-base的新版本。

图片

图片

他并没有让模型变得更聪明,而是剥离了OpenAI在训练中添加的推理与对齐能力。

结果是,一个更快、更自由、更无约束的“原始基座模型”重新出现。

一、从“推理模型”到“基座模型”的逆转

图片

图片

地址:http://huggingface.co/jxm/gpt-oss-20b-base

要理解这一变化,必须先区分“推理优化模型”和“基座模型”。

OpenAI发布的gpt-oss属于前者,它经过额外的指令微调和对齐,使得模型在回答问题时更安全、更符合预期。

这种做法源自2024年推出的o1模型,强调链式思维,让AI在生成答案前进行多步推理与自我检查。它们在编程、数学和解释类任务上表现优异,但往往会规避敏感话题。

相比之下,基座模型是未经对齐的原始形态,它只负责预测下一个词,不具备礼貌、拒绝或安全过滤的机制。

图片

图片

Jack Morris的目标就是把gpt-oss-20B“逆转”回这种原始形态。

他在X平台写道:“我们基本上逆转了LLM训练中的对齐部分,现在它重新生成自然文本,不再进行链式推理,只是像最初一样预测下一个token。”

这种方式让模型重新具备更广阔的表达自由,但同时也带来更大的安全风险。

二、技术路径:60M参数的微小调整

Morris并没有采用常见的“越狱提示词”,而是直接从模型结构入手。

在与OpenAI前联合创始人、现任Thinking Machines首席科学家John Schulman交流后,他确定了一个关键点:

如果大部分预训练知识仍然存在,那么只需要一个低秩的小优化,就能让模型回到基座分布。

图片

图片

他采用了LoRA(低秩适配器)技术,只在第7、15和23层的MLP模块做了改动,秩设为16。

这一调整涉及大约6000万参数,只占模型总量的0.3%。训练数据来自FineWeb数据集的2万篇文档,训练时尽量保持接近原始预训练格式。

训练过程耗时四天,硬件配置为8张NVIDIA H200 GPU,学习率2e-6,批大小16,最大序列长度8192。

完成后,他将LoRA权重合并回模型,形成一个可以独立运行的成品。Morris强调,他并没有恢复原始的权重参数,而是恢复了输出分布。

换言之,他让模型的输出概率模式更接近基座形态,即使内部的权重并不完全相同。

图片

图片

三、自由与风险:研究者的两难选择

新模型gpt-oss-20b-base的行为与官方版本截然不同。它不再自动进行推理步骤,而是直接生成更自由的文本。

这意味着,它会输出OpenAI原版模型拒绝生成的指令,例如涉及武器制作、非法行为或粗口内容。

在测试中,它甚至能够逐字复现部分书籍片段,显示出记忆性内容依然可被触发。

不过,痕迹依然存在。如果在提示中使用“Human: … Assistant: …”的对话模板,它有时仍会表现出礼貌的助手风格。

为了获得最“原始”的输出,Morris建议使用模型的特殊起始符号<|startoftext|>,并避免任何聊天模板。

这也让研究界看到另一面:开放权重不仅能被复用,还能被快速改造。

更值得注意的是,Morris还计划将类似的逆转方法应用到Qwen等其他开源指令模型上。

这意味着,“去对齐化”的趋势可能继续扩散,成为研究者和开发者探索的又一条分支道路。

AI大模型学习福利

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。


因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

四、AI大模型商业化落地方案

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值