当前位置: 首页 > news >正文

OpenAI 开源 GPT-OSS:大型语言模型的开放时代正式来临!

引言

OpenAI 于 2025 年 8 月 5 日发布了其首个开放权重(open-weight)大型语言模型系列——gpt-oss-120b 和 gpt-oss-20b,标志着其自 GPT-2 以来首次推出此类模型。 这次发布引起了媒体和专家的广泛关注。

gpt-oss in github

📰 媒体报道与分析

1. 《Financial Times》

OpenAI 推出 gpt-oss 模型旨在应对中国初创公司 DeepSeek 的竞争。 这些模型在推理任务中表现优异,适用于智能体工作流,支持可配置的推理强度。 尽管被称为“开放权重”模型,但未提供完整的训练数据或代码。 OpenAI 强调其开放策略基于 AI 平民化,并已进行严格的安全测试,以评估潜在的滥用风险。 (Financial Times, OpenAI)

2. 《WIRED》

OpenAI 发布的 gpt-oss-120b 和 gpt-oss-20b 模型支持链式推理,可在消费者硬件上运行,适合离线部署。 这些模型的性能与 OpenAI 的专有模型 o3-mini 和 o4-mini 相当,甚至在某些基准测试中表现更好。 OpenAI 通过严格的安全测试,确保模型在面对潜在滥用时仍保持低风险。 (OpenAI, WIRED)

3. 《The Verge》

OpenAI 的 gpt-oss 模型采用混合专家架构,优化了推理效率和内存使用。 这些模型在多个基准测试中表现出色,尤其在健康相关查询和竞赛数学方面优于 o4-mini。 OpenAI 强调,尽管模型是开放的,但仍采取了多层次的安全措施,以防止滥用。 (OpenAI, The Verge)

🧠 技术架构

OpenAI 于 2025 年 8 月 5 日发布了其首个开放权重(open-weight)大型语言模型系列——gpt-oss-120b 和 gpt-oss-20b,标志着其自 GPT-2 以来首次推出此类模型。这一发布在技术层面具有深远意义,以下从架构、性能、安全性和生态系统等方面进行分析:gpt-oss 模型采用了 Mixture-of-Experts(MoE)架构,这是一种高效的稀疏激活机制(如下示意图)。在每次推理中,模型仅激活一部分专家子网络,从而减少计算量和内存占用,提高推理效率。

GPT-OSS MoE

具体而言,gpt-oss-120b 包含 36 层,总参数量为 1170 亿,其中每个 token 激活约 5.1 亿参数;而 gpt-oss-20b 包含 24 层,总参数量为 210 亿,每个 token 激活约 3.6 亿参数 (如下图)。(arXiv, bdtechtalks.com, OpenAI)

GPT-OSS Architecture Hyperparameter

此外,OpenAI 在训练过程中使用了 Flash Attention (如下图)和 YaRN 技术,支持高达 128K 的上下文长度,适用于复杂的推理任务 。(OpenAI)

Flash Attention

⚙️ 性能与应用场景

在标准基准测试中,gpt-oss-120b 在编程、数学推理和健康领域的表现优于 o3-mini 和 o4-mini 模型,尤其在 HealthBench 和 AIME 2024/2025 等任务中取得了领先成绩(参考下图) 。(OpenAI)

Codeforces Competition code

Humanity's Last Exam Expert-level questions across subjects

HealthBench Realistic health conversations and HealthBench Hard Challenging health conversations

AIME 2024 (tools) and AIME 2025 (tools) Competition math

gpt-oss-20b 尽管参数量较小,但在推理速度和成本效益方面表现出色,适合在资源有限的环境中部署 。这两个模型支持链式推理(Chain-of-Thought, CoT, 如下图为官网给的例子)和工具调用(如 Python 代码执行、网页浏览等),可用于构建自主智能体工作流 。(OpenAI)

GPT-OSS COT

🔐安全性与滥用防范

OpenAI 对 gpt-oss 模型进行了严格的安全评估,包括模拟恶意微调的场景。测试结果显示,即使在对抗性微调后,模型在生物化学和网络安全领域的能力仍未达到高风险水平 。此外,OpenAI 引入了“指令层级”(Instruction Hierarchy)等等机制,以防止开发者绕过系统消息进行滥用 。(OpenAI)

1. 预训练阶段的有害数据过滤

在 GPT-OSS 的预训练阶段,OpenAI 采用了先进的数据过滤技术,剔除与化学、生物、放射性和核(CBRN)相关的有害数据。这一做法旨在减少模型在处理敏感领域时可能产生的风险。

  • 相关研究:Hurst 等人(2024)在 GPT-4o 的训练中采用了类似的 CBRN 数据过滤策略,以降低模型生成有害内容的可能性(参考下图)。 (arXiv)

Biological threats

2. 后训练阶段的安全对齐与指令层级

在模型预训练后,OpenAI 采用了“审慎对齐”(deliberative alignment, 参考下图)和“指令层级”(instruction hierarchy)等安全训练方法,教导模型拒绝不安全的提示,并防范提示注入攻击。这些方法通过强化学习等技术,使模型在面对恶意提示时能够保持安全性。(OpenAI)

Deliberative Alignment

  • 相关研究:Wallace 等人(2025)指出,现有的安全对齐方法可能会被恶意微调所绕过,强调了在开放权重模型中加强安全性的必要性(arXiv),gpt-oss 在生物安全测试的效果如下图所示:

Capability evaluations for biology

3. 最坏情况微调(Malicious Fine-Tuning,MFT)

OpenAI 进一步模拟了恶意行为者可能进行的微调,特别是在生物和网络安全领域。通过在这些领域进行强化学习微调,评估模型在最坏情况下的表现。

  • 相关研究:Wallace 等人(2025)提出了最坏情况微调的概念,并通过实验评估了 GPT-OSS 在生物和网络安全领域(参考下图)的潜在风险。 (arXiv)

Risk evaluations for cybersecurity

4. 红队挑战赛

为进一步增强模型的安全性,OpenAI 举办了红队挑战赛,邀请全球的研究人员和开发者共同协助发现新的安全问题。挑战赛设有 50 万美元的奖金,由来自 OpenAI 和其他顶尖实验室的专家评审团评选得主。

  • 相关研究:Seger 等人(2023)讨论了开源高能力基础模型的发布策略,强调了红队评估在确保模型安全性中的重要性。 (arXiv)

OpenAI 在 GPT-OSS 的发布中,采用了多层次的安全训练方法,包括预训练阶段的数据过滤、后训练阶段的安全对齐与指令层级,以及最坏情况微调等策略。这些措施有效地降低了模型在面对恶意使用时的潜在风险。然而,研究表明,即使在经过严格安全训练的模型中,恶意微调仍可能导致安全性下降。因此,持续的安全评估和社区参与对于确保开源模型的安全性至关重要。

🌐 开放生态与社区影响

gpt-oss 模型采用 Apache 2.0 许可证,允许开发者进行修改、再分发和商业化使用 。这一开放策略促进了 AI 技术的民主化,降低了中小型企业和研究机构的准入门槛(Medium)。模型已在 Hugging Face、AWS SageMaker 和 vLLM 等平台上部署,支持多种硬件环境,包括 NVIDIA 和 AMD 的 GPU 。(vLLM Blog)

开源大型语言模型(LLM)对比分析

截至 2025 年,开源大型语言模型(LLM)已成为 AI 研究和应用的重要组成部分。不同模型在架构设计、性能、应用场景和开源策略等方面各具特色。以下是对当前主流开源 LLM 的对比分析:

模型名称

参数规模

架构类型

主要优势

适用场景

开源协议

LLaMA 3

8B–405B

MoE(混合专家)

英文能力强,支持长上下文(128K)

英文研究与开发,低资源环境

Apache 2.0

DeepSeek-V3

121B

MoE(混合专家)

中文能力突出,数学与编程能力强

中文应用,企业级部署,低成本推理

MIT

Falcon 180B

180B

解码器架构

高效推理,性能媲美 GPT-4

多语言任务,科研与工业界应用

Apache 2.0

DBRX

132B

MoE(混合专家)

性能领先,训练成本低

企业级应用,科研,低成本部署

Databricks Open Model License

Qwen 3

1.5B–72B

解码器架构

中文优化,工具调用能力强

中文应用,企业级部署,开发者友好

Qwen Research License

Mistral 7B

7B

MoE(混合专家)

轻量级,推理速度快

移动端或边缘计算,低资源环境

Apache 2.0

StarCoder

15.5B

解码器架构

编程能力强,支持多语言

编程任务,代码生成,开发者工具

Open Responsible AI Model License

Code Llama

7B–70B

解码器架构

编程任务表现优异,支持长输入

编程任务,代码生成,开发者工具

Apache 2.0

GPT-OSS-120B

117B

MoE(混合专家)

高效推理,性能媲美 o4-mini

高性能推理任务,企业级部署

Apache 2.0

GPT-OSS-20B

21B

MoE(混合专家)

适用于消费级硬件,低延迟

设备端应用,本地推理,快速迭代

Apache 2.0

🧠 模型架构与性能分析

  • MoE 架构:如 GPT-OSS、LLaMA 3、DeepSeek-V3、DBRX 和 Mistral 7B,采用混合专家架构,在每次推理中激活部分专家子网络,提高计算效率和内存利用率。

  • 解码器架构:如 Falcon 180B、Qwen 3、StarCoder 和 Code Llama,采用解码器架构,适用于生成任务,如文本生成和代码生成。

  • 性能表现:DeepSeek-V3 在数学和编程任务中表现突出,超越了多个开源和闭源模型。DBRX 在多个基准测试中表现领先,训练成本低。Qwen 3 在中文任务中表现优异,适合中文应用。

🌐 应用场景与选择建议

  • 英文研究与开发:LLaMA 3 适用于英文语言研究和低资源环境。

  • 中文应用与企业级部署:DeepSeek-V3 和 Qwen 3 在中文任务中表现优异,适合中文应用和企业级部署。

  • 多语言任务与科研应用:Falcon 180B 和 DBRX 在多语言任务中表现突出,适合科研和工业界应用。

  • 开发者工具:StarCoder 和 Code Llama 在编程任务中表现优异,适合开发者工具和代码生成。(arXiv)

开源协议分析

以下是对当前主流开源大型语言模型(LLM)所采用的开源协议的对比分析:

开源协议

适用模型示例

主要特点

商业使用限制

修改与再发布

适用场景

Apache 2.0

LLaMA 2、GPT-OSS、h2oGPT、DBRX、Granite、Mistral 7B、Mixtral 8x22B、DeepSeek-V3、Qwen 3

允许商业使用、修改、再发布,需保留版权声明和免责声明;提供专利授权;适用于多种用途。

企业部署、研究开发、教育用途等

MIT

OpenLLaMA、h2oGPT、Mistral Small 3.1、Qwen 3.5、DeepSeek-V3(部分版本)

极简许可,允许商业使用、修改、再发布,需保留版权声明和免责声明。

快速原型开发、个人项目、初创公司等

BSD 系列(2-Clause/3-Clause)

GPT-NeoX、Mistral Small 3.1、Qwen 3.5、DeepSeek-V3(部分版本)

类似于 MIT,要求保留版权声明和免责声明;3-Clause 版本禁止使用贡献者的名称进行宣传。

学术研究、开源社区项目等

Creative Commons(CC-BY)

BLOOM、LLaMA 2(部分版本)

需要署名,适用于内容共享和传播;不允许用于训练其他语言模型。

内容生成、翻译、摘要等非商业用途

Databricks Open Model License

DBRX

允许商业使用,但禁止用于训练其他模型;需遵守 Databricks 的使用政策。

企业级应用、定制开发等

DeepSeek License

DeepSeek-V2、DeepSeek-V3(部分版本)

允许商业使用,但禁止用于训练其他模型;需遵守 DeepSeek 的使用政策。

中文应用、企业级部署等

IBM Granite License

Granite

允许商业使用、修改、再发布,需遵守 IBM 的使用政策。

企业级应用、科研开发等


🔍 关键点解读

  • Apache 2.0 与 MIT 协议:这两种协议广泛应用于开源 LLM,提供了灵活的使用、修改和再发布权限,适用于商业和非商业用途。

  • BSD 系列协议:与 Apache 2.0 和 MIT 协议类似,但 3-Clause 版本增加了对贡献者名称使用的限制。(Llm Explorer)

  • Creative Commons(CC-BY)协议:主要用于内容共享和传播,要求署名,但不允许用于训练其他语言模型,限制了其在 LLM 领域的应用。

  • Databricks Open Model License 与 DeepSeek License:这两种协议允许商业使用,但对模型的再训练和再发布有一定限制,适用于特定的企业级应用。

  • IBM Granite License:允许商业使用、修改和再发布,但需遵守 IBM 的使用政策,适用于企业级应用和科研开发。

✅ 建议

在选择开源 LLM 时,应根据具体的应用场景、商业需求和法律合规性,仔细评估所采用的开源协议。对于需要灵活使用、修改和再发布的项目,推荐选择 Apache 2.0 或 MIT 协议;对于内容共享和传播的项目,Creative Commons(CC-BY)协议可能更为合适;对于企业级应用,Databricks Open Model License、DeepSeek License 或 IBM Granite License 等协议提供了特定的使用政策。

📌 总结

OpenAI 的 gpt-oss 模型系列在技术架构、性能、安全性和开放生态等方面均具有重要意义:

  • 架构创新:采用 MoE 架构和高效的训练技术,提高了模型的计算效率。

  • 性能提升:在多个标准基准测试中表现优异,适用于多种应用场景。

  • 安全防范:通过严格的安全评估和机制设计,降低了模型被滥用的风险。

  • 开放生态:通过开放许可证和多平台支持,促进了 AI 技术的广泛应用。

这一发布标志着 OpenAI 在开放 AI 领域的重要一步,可能对整个行业产生深远影响。

http://www.dtcms.com/a/320184.html

相关文章:

  • HTTP请求头详解:从基础到实战
  • 当函数返回有多个返回值时,需要注意的问题 : Effective Python 第19条
  • C++ vector 扩容时到底发生了什么?
  • 一个程序通过 HTTP 协议调用天气 API,解析 JSON 格式的天气数据,提取关键信息并格式化输出:日期、天气状况、温度范围、风向、湿度等核心气象数据。
  • 1688 商品详情接口开发实战:从平台特性到高可用实现
  • Redis最新安装教程(WindowsLinux)
  • 对基带信号进行调制的原因及通俗理解
  • HR人才测评工具,卡特尔16pf性格测试
  • Numpy科学计算与数据分析:Numpy数学函数入门与实践
  • 我爱发明之Linux下使用Conky在桌面显示Spotify状态及封面字符画
  • 无损音乐下载器!(电脑)绿色免费,无限下载,无损音质
  • 是否将标签页tag信息存储在Redux store中还是仅存储在hook的state中
  • AI题解5
  • 什么是0.5米分辨率卫星影像数据?
  • 一文学会c++继承 组合
  • [优选算法专题一双指针——两数之和](双指针和哈希表)
  • 解决GitHub push失败-Failed to connect to github.com port 443: Timed out
  • 亚马逊卖家反馈机制变革:纯星级评级时代的合规挑战与运营重构
  • SOMGAN:用自组织映射改善GAN的模式探索能力
  • 自然语言处理×第四卷:文本特征与数据——她开始准备:每一次输入,都是为了更像你地说话
  • python selenium环境安装
  • Python自动化测试selenium指定截图文件名方法
  • MySQL 备份利器 Xtrabackup 全解析:从部署到恢复的实战指南
  • 视觉语言模型的空间推理缺陷——AI 在医学扫描中难以区分左右
  • 《CogAgent: A Visual Language Model for GUI Agents》论文精读笔记
  • Vue 3 入门教程 9 - 表单处理
  • 8、Redis的HyperLogLog、事务Multi、管道Pipeline,以及Redis7.0特性
  • DoubleTrouble靶机
  • 【R语言】重新绘制高清MaxEnt的单因素响应曲线图像
  • 最佳左前缀法则(Optimal Left-Prefix Rule)