OpenAI宣布发布完整版o1推理模型以及视频生成模型Sora。 o1 公告还包括一个单独的微调API的公告。
O1 的思维链技术使模型能够在提供响应之前生成复杂的、逐步的思维过程,使其非常适合需要细致推理的任务。这些模型在公共、专有和自定义数据集的混合上进行训练。不同的方法使用更慢、更深思熟虑的推理。 API 上的 o1 还允许开发人员指定一条自定义开发人员消息,该消息包含在最终用户的每个提示中。
安全仍然是 o1 系列的基石,推出了多项评估以避免越狱尝试和偏见行为。 OpenAI 发布的评估显示,o1 在避免良性环境中过度拒绝的能力方面优于 GPT-4o。该模型的推理能力扩展到保持对 OpenAI 指令层次结构的遵守,确保系统指令优先于开发人员和用户提示。尽管取得了这些进展,挑战仍然存在,特别是在多式联运输入等领域,实现精确的拒绝边界仍然是一项正在进行的工作。
红队在测试 o1 模型的能力和局限性方面发挥了作用,专家们探索了网络安全、生物和放射性威胁以及说服性操纵等领域。虽然该模型的安全机制在大多数情况下成功抵御了高风险场景,但其响应细节和深度的增加有时会在绕过拒绝时放大风险。他们试图通过与外部评估者合作并使用他们的准备框架来缓解这一问题。
“o1 大语言模型家族经过强化学习训练,可以执行复杂的推理。 o1 在回答之前会思考——它可以在响应用户之前产生一长串的思考。通过训练,模型学会完善自己的思维过程,尝试不同的策略,并认识到自己的错误。” - 开放人工智能
新的 Sora 模型允许用户使用从文本描述到现有图像和视频的输入格式,以 1080p 分辨率创建长达 20 秒的视频。 Sora借鉴DALL·E和GPT架构奠定的基础,利用基于扩散的方法来保持多个帧之间视觉元素的一致性。它的训练基于诸如重述之类的技术,以实现更忠实的文本对齐。
Sora 建立在视觉补丁的概念之上,受到大型语言模型中标记化策略的启发。视频被压缩到低维潜在空间中,并划分为时空补丁,以进行可扩展的表示和处理。 OpenAI 对 Sora 进行了混合公开数据集、通过合作伙伴获得的专有资源以及内部设计的自定义数据集的培训。强大的预训练过滤机制可确保在数据到达模型之前删除露骨、暴力或敏感内容。
Sora 的未来迭代将继续完善其功能和保障措施,重点关注代表性、出处和道德一致性。减少输出偏差和提高分类器性能的努力反映了模型的迭代开发精神。
有兴趣了解更多关于 o1 的开发人员可以检查它的系统卡,或者如果他们有兴趣了解更多关于 Sora 的信息,他们可以检查它的系统卡。有兴趣了解有关 Canvas、Apple Intelligence 中的 ChatGPT 以及 OpenAI 12 天其他功能的更多信息的开发人员应该在未来几天内关注 InfoQ,以获取更多报道。