OpenAI 开源 GPT-OSS:大型语言模型的开放时代正式来临!
引言
OpenAI 于 2025 年 8 月 5 日发布了其首个开放权重(open-weight)大型语言模型系列——gpt-oss-120b 和 gpt-oss-20b,标志着其自 GPT-2 以来首次推出此类模型。 这次发布引起了媒体和专家的广泛关注。
gpt-oss in github
📰 媒体报道与分析
1. 《Financial Times》
OpenAI 推出 gpt-oss 模型旨在应对中国初创公司 DeepSeek 的竞争。 这些模型在推理任务中表现优异,适用于智能体工作流,支持可配置的推理强度。 尽管被称为“开放权重”模型,但未提供完整的训练数据或代码。 OpenAI 强调其开放策略基于 AI 平民化,并已进行严格的安全测试,以评估潜在的滥用风险。 (Financial Times, OpenAI)
2. 《WIRED》
OpenAI 发布的 gpt-oss-120b 和 gpt-oss-20b 模型支持链式推理,可在消费者硬件上运行,适合离线部署。 这些模型的性能与 OpenAI 的专有模型 o3-mini 和 o4-mini 相当,甚至在某些基准测试中表现更好。 OpenAI 通过严格的安全测试,确保模型在面对潜在滥用时仍保持低风险。 (OpenAI, WIRED)
3. 《The Verge》
OpenAI 的 gpt-oss 模型采用混合专家架构,优化了推理效率和内存使用。 这些模型在多个基准测试中表现出色,尤其在健康相关查询和竞赛数学方面优于 o4-mini。 OpenAI 强调,尽管模型是开放的,但仍采取了多层次的安全措施,以防止滥用。 (OpenAI, The Verge)
🧠 技术架构
OpenAI 于 2025 年 8 月 5 日发布了其首个开放权重(open-weight)大型语言模型系列——gpt-oss-120b 和 gpt-oss-20b,标志着其自 GPT-2 以来首次推出此类模型。这一发布在技术层面具有深远意义,以下从架构、性能、安全性和生态系统等方面进行分析:gpt-oss 模型采用了 Mixture-of-Experts(MoE)架构,这是一种高效的稀疏激活机制(如下示意图)。在每次推理中,模型仅激活一部分专家子网络,从而减少计算量和内存占用,提高推理效率。
GPT-OSS MoE
具体而言,gpt-oss-120b 包含 36 层,总参数量为 1170 亿,其中每个 token 激活约 5.1 亿参数;而 gpt-oss-20b 包含 24 层,总参数量为 210 亿,每个 token 激活约 3.6 亿参数 (如下图)。(arXiv, bdtechtalks.com, OpenAI)
GPT-OSS Architecture Hyperparameter
此外,OpenAI 在训练过程中使用了 Flash Attention (如下图)和 YaRN 技术,支持高达 128K 的上下文长度,适用于复杂的推理任务 。(OpenAI)
Flash Attention
⚙️ 性能与应用场景
在标准基准测试中,gpt-oss-120b 在编程、数学推理和健康领域的表现优于 o3-mini 和 o4-mini 模型,尤其在 HealthBench 和 AIME 2024/2025 等任务中取得了领先成绩(参考下图) 。(OpenAI)
Codeforces Competition code
Humanity's Last Exam Expert-level questions across subjects
HealthBench Realistic health conversations and HealthBench Hard Challenging health conversations
AIME 2024 (tools) and AIME 2025 (tools) Competition math
gpt-oss-20b 尽管参数量较小,但在推理速度和成本效益方面表现出色,适合在资源有限的环境中部署 。这两个模型支持链式推理(Chain-of-Thought, CoT, 如下图为官网给的例子)和工具调用(如 Python 代码执行、网页浏览等),可用于构建自主智能体工作流 。(OpenAI)
GPT-OSS COT
🔐安全性与滥用防范
OpenAI 对 gpt-oss 模型进行了严格的安全评估,包括模拟恶意微调的场景。测试结果显示,即使在对抗性微调后,模型在生物化学和网络安全领域的能力仍未达到高风险水平 。此外,OpenAI 引入了“指令层级”(Instruction Hierarchy)等等机制,以防止开发者绕过系统消息进行滥用 。(OpenAI)
1. 预训练阶段的有害数据过滤
在 GPT-OSS 的预训练阶段,OpenAI 采用了先进的数据过滤技术,剔除与化学、生物、放射性和核(CBRN)相关的有害数据。这一做法旨在减少模型在处理敏感领域时可能产生的风险。
-
相关研究:Hurst 等人(2024)在 GPT-4o 的训练中采用了类似的 CBRN 数据过滤策略,以降低模型生成有害内容的可能性(参考下图)。 (arXiv)
Biological threats
2. 后训练阶段的安全对齐与指令层级
在模型预训练后,OpenAI 采用了“审慎对齐”(deliberative alignment, 参考下图)和“指令层级”(instruction hierarchy)等安全训练方法,教导模型拒绝不安全的提示,并防范提示注入攻击。这些方法通过强化学习等技术,使模型在面对恶意提示时能够保持安全性。(OpenAI)
Deliberative Alignment
-
相关研究:Wallace 等人(2025)指出,现有的安全对齐方法可能会被恶意微调所绕过,强调了在开放权重模型中加强安全性的必要性(arXiv),gpt-oss 在生物安全测试的效果如下图所示:
Capability evaluations for biology
3. 最坏情况微调(Malicious Fine-Tuning,MFT)
OpenAI 进一步模拟了恶意行为者可能进行的微调,特别是在生物和网络安全领域。通过在这些领域进行强化学习微调,评估模型在最坏情况下的表现。
-
相关研究:Wallace 等人(2025)提出了最坏情况微调的概念,并通过实验评估了 GPT-OSS 在生物和网络安全领域(参考下图)的潜在风险。 (arXiv)
Risk evaluations for cybersecurity
4. 红队挑战赛
为进一步增强模型的安全性,OpenAI 举办了红队挑战赛,邀请全球的研究人员和开发者共同协助发现新的安全问题。挑战赛设有 50 万美元的奖金,由来自 OpenAI 和其他顶尖实验室的专家评审团评选得主。
-
相关研究:Seger 等人(2023)讨论了开源高能力基础模型的发布策略,强调了红队评估在确保模型安全性中的重要性。 (arXiv)
OpenAI 在 GPT-OSS 的发布中,采用了多层次的安全训练方法,包括预训练阶段的数据过滤、后训练阶段的安全对齐与指令层级,以及最坏情况微调等策略。这些措施有效地降低了模型在面对恶意使用时的潜在风险。然而,研究表明,即使在经过严格安全训练的模型中,恶意微调仍可能导致安全性下降。因此,持续的安全评估和社区参与对于确保开源模型的安全性至关重要。
🌐 开放生态与社区影响
gpt-oss 模型采用 Apache 2.0 许可证,允许开发者进行修改、再分发和商业化使用 。这一开放策略促进了 AI 技术的民主化,降低了中小型企业和研究机构的准入门槛(Medium)。模型已在 Hugging Face、AWS SageMaker 和 vLLM 等平台上部署,支持多种硬件环境,包括 NVIDIA 和 AMD 的 GPU 。(vLLM Blog)
开源大型语言模型(LLM)对比分析
截至 2025 年,开源大型语言模型(LLM)已成为 AI 研究和应用的重要组成部分。不同模型在架构设计、性能、应用场景和开源策略等方面各具特色。以下是对当前主流开源 LLM 的对比分析:
模型名称 | 参数规模 | 架构类型 | 主要优势 | 适用场景 | 开源协议 |
LLaMA 3 | 8B–405B | MoE(混合专家) | 英文能力强,支持长上下文(128K) | 英文研究与开发,低资源环境 | Apache 2.0 |
DeepSeek-V3 | 121B | MoE(混合专家) | 中文能力突出,数学与编程能力强 | 中文应用,企业级部署,低成本推理 | MIT |
Falcon 180B | 180B | 解码器架构 | 高效推理,性能媲美 GPT-4 | 多语言任务,科研与工业界应用 | Apache 2.0 |
DBRX | 132B | MoE(混合专家) | 性能领先,训练成本低 | 企业级应用,科研,低成本部署 | Databricks Open Model License |
Qwen 3 | 1.5B–72B | 解码器架构 | 中文优化,工具调用能力强 | 中文应用,企业级部署,开发者友好 | Qwen Research License |
Mistral 7B | 7B | MoE(混合专家) | 轻量级,推理速度快 | 移动端或边缘计算,低资源环境 | Apache 2.0 |
StarCoder | 15.5B | 解码器架构 | 编程能力强,支持多语言 | 编程任务,代码生成,开发者工具 | Open Responsible AI Model License |
Code Llama | 7B–70B | 解码器架构 | 编程任务表现优异,支持长输入 | 编程任务,代码生成,开发者工具 | Apache 2.0 |
GPT-OSS-120B | 117B | MoE(混合专家) | 高效推理,性能媲美 o4-mini | 高性能推理任务,企业级部署 | Apache 2.0 |
GPT-OSS-20B | 21B | MoE(混合专家) | 适用于消费级硬件,低延迟 | 设备端应用,本地推理,快速迭代 | Apache 2.0 |
🧠 模型架构与性能分析
-
MoE 架构:如 GPT-OSS、LLaMA 3、DeepSeek-V3、DBRX 和 Mistral 7B,采用混合专家架构,在每次推理中激活部分专家子网络,提高计算效率和内存利用率。
-
解码器架构:如 Falcon 180B、Qwen 3、StarCoder 和 Code Llama,采用解码器架构,适用于生成任务,如文本生成和代码生成。
-
性能表现:DeepSeek-V3 在数学和编程任务中表现突出,超越了多个开源和闭源模型。DBRX 在多个基准测试中表现领先,训练成本低。Qwen 3 在中文任务中表现优异,适合中文应用。
🌐 应用场景与选择建议
-
英文研究与开发:LLaMA 3 适用于英文语言研究和低资源环境。
-
中文应用与企业级部署:DeepSeek-V3 和 Qwen 3 在中文任务中表现优异,适合中文应用和企业级部署。
-
多语言任务与科研应用:Falcon 180B 和 DBRX 在多语言任务中表现突出,适合科研和工业界应用。
-
开发者工具:StarCoder 和 Code Llama 在编程任务中表现优异,适合开发者工具和代码生成。(arXiv)
开源协议分析
以下是对当前主流开源大型语言模型(LLM)所采用的开源协议的对比分析:
开源协议 | 适用模型示例 | 主要特点 | 商业使用限制 | 修改与再发布 | 适用场景 |
---|---|---|---|---|---|
Apache 2.0 | LLaMA 2、GPT-OSS、h2oGPT、DBRX、Granite、Mistral 7B、Mixtral 8x22B、DeepSeek-V3、Qwen 3 | 允许商业使用、修改、再发布,需保留版权声明和免责声明;提供专利授权;适用于多种用途。 | ✅ | ✅ | 企业部署、研究开发、教育用途等 |
MIT | OpenLLaMA、h2oGPT、Mistral Small 3.1、Qwen 3.5、DeepSeek-V3(部分版本) | 极简许可,允许商业使用、修改、再发布,需保留版权声明和免责声明。 | ✅ | ✅ | 快速原型开发、个人项目、初创公司等 |
BSD 系列(2-Clause/3-Clause) | GPT-NeoX、Mistral Small 3.1、Qwen 3.5、DeepSeek-V3(部分版本) | 类似于 MIT,要求保留版权声明和免责声明;3-Clause 版本禁止使用贡献者的名称进行宣传。 | ✅ | ✅ | 学术研究、开源社区项目等 |
Creative Commons(CC-BY) | BLOOM、LLaMA 2(部分版本) | 需要署名,适用于内容共享和传播;不允许用于训练其他语言模型。 | ❌ | ❌ | 内容生成、翻译、摘要等非商业用途 |
Databricks Open Model License | DBRX | 允许商业使用,但禁止用于训练其他模型;需遵守 Databricks 的使用政策。 | ✅ | ❌ | 企业级应用、定制开发等 |
DeepSeek License | DeepSeek-V2、DeepSeek-V3(部分版本) | 允许商业使用,但禁止用于训练其他模型;需遵守 DeepSeek 的使用政策。 | ✅ | ❌ | 中文应用、企业级部署等 |
IBM Granite License | Granite | 允许商业使用、修改、再发布,需遵守 IBM 的使用政策。 | ✅ | ✅ | 企业级应用、科研开发等 |
🔍 关键点解读
-
Apache 2.0 与 MIT 协议:这两种协议广泛应用于开源 LLM,提供了灵活的使用、修改和再发布权限,适用于商业和非商业用途。
-
BSD 系列协议:与 Apache 2.0 和 MIT 协议类似,但 3-Clause 版本增加了对贡献者名称使用的限制。(Llm Explorer)
-
Creative Commons(CC-BY)协议:主要用于内容共享和传播,要求署名,但不允许用于训练其他语言模型,限制了其在 LLM 领域的应用。
-
Databricks Open Model License 与 DeepSeek License:这两种协议允许商业使用,但对模型的再训练和再发布有一定限制,适用于特定的企业级应用。
-
IBM Granite License:允许商业使用、修改和再发布,但需遵守 IBM 的使用政策,适用于企业级应用和科研开发。
✅ 建议
在选择开源 LLM 时,应根据具体的应用场景、商业需求和法律合规性,仔细评估所采用的开源协议。对于需要灵活使用、修改和再发布的项目,推荐选择 Apache 2.0 或 MIT 协议;对于内容共享和传播的项目,Creative Commons(CC-BY)协议可能更为合适;对于企业级应用,Databricks Open Model License、DeepSeek License 或 IBM Granite License 等协议提供了特定的使用政策。
📌 总结
OpenAI 的 gpt-oss 模型系列在技术架构、性能、安全性和开放生态等方面均具有重要意义:
-
架构创新:采用 MoE 架构和高效的训练技术,提高了模型的计算效率。
-
性能提升:在多个标准基准测试中表现优异,适用于多种应用场景。
-
安全防范:通过严格的安全评估和机制设计,降低了模型被滥用的风险。
-
开放生态:通过开放许可证和多平台支持,促进了 AI 技术的广泛应用。
这一发布标志着 OpenAI 在开放 AI 领域的重要一步,可能对整个行业产生深远影响。