GPT-5 全面解析与 DeepSeek 实战对比:推理、工具调用、上下文与成本
GPT-5 发布,统一系统与推理能力显著升级:400K 上下文、minimal reasoning、verbosity、新的 Custom Tools 与并行工具链。本文以工程师视角对比 GPT-5 与 DeepSeek,并给出可复制的实战方案与选型策略。文末有萌新推荐书籍,不容错过!
目录
1. GPT-5 是什么
2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools
2.1 reasoning_effort:更细粒度地控制“思考时长”
2.2 verbosity:用参数而非提示词控制“答案长短”
2.3 Custom Tools:摆脱“只会 JSON”的束缚
3. DeepSeek 家族速览:V3 与 R1 的工程画像
3.1 模型线与定位
3.2 开放与价格(API 端)
3.3 生态与落地位
4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)
4.1 概览对比表
4.2 能力维度拆解(工程视角)
5. 选型决策树
6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理
6.1 工具编排思路
6.2 提示词骨架
6.3 Python(Responses API 示例)
7. 实战二(DeepSeek):本地 RAG + 可视化推理链
7.1 部署与依赖
7.2 关键技巧
7.3 Python(DeepSeek API 示例)
延伸:零基础读者入门指引(可选)
与 GPT-4o 相比,GPT-5 的亲切感有所减弱,不必要的表情符号也更少,后续的互动也更加细腻周到。与其说是“与 AI 对话”,不如说更像是在与一位拥有博士级智力水平的乐于助人的朋友聊天。
1. GPT-5 是什么
GPT-5 是一个“统一系统”(Unified System),包含快模型(面向日常响应)、深度推理模型(GPT‑5 thinking,面向复杂任务)与实时路由器(按任务难度/上下文/工具需求/显式意图自动切换)。ChatGPT 端默认由系统自动调度;API 端给到推理模型族(gpt-5
/ gpt-5-mini
/ gpt-5-nano
)与非推理聊天模型 gpt-5-chat-latest
。
关键点清单:
-
可用性:所有 ChatGPT 用户可用,Plus 使用上限更高;Pro 额外可开启 GPT‑5 pro(更深的并行推理)。
-
上下文:API 端最大 272k 输入 + 128k 推理/输出 ≈ 400k 总上下文,适合超长文档检索与多轮工具编排。
-
评测层面:在 AIME’25、SWE‑bench Verified、Aider polyglot、MMMU、HealthBench 等多项评测中刷新纪录,尤其在编码与代理化任务上提升显著。
-
系统目标:更低幻觉率、更高诚实性(减少“自信但错误/欺骗性”回答)、更稳定的指令遵循与工具使用。
2. 开发者新特性:minimal reasoning、verbosity 与 Custom Tools
2.1 reasoning_effort:更细粒度地控制“思考时长”
-
取值:
minimal
/low
/medium
(默认)/high
。 -
推荐用法:
-
首轮快速筛选:
minimal
搭配verbosity=low
,用来做“是否需要升级为深推理”的预判; -
复杂任务:遇到跨文件分析、非平凡算法推导、长链路工具调用时,再切到
high
; -
容错策略:失败重试时提升到更高档,减少“错误自信”。
-
2.2 verbosity:用参数而非提示词控制“答案长短”
-
取值:
low
/medium
/high
; -
典型场景:即时摘要(低冗词)、PR 说明(中等)、技术评审/复盘(高细节)。
2.3 Custom Tools:摆脱“只会 JSON”的束缚
-
作用:允许模型用明文(plain text)而不是 JSON 作为工具输入,且可用 正则/CFG 限定格式。
-
意义:对“复杂字符串/大段代码/SQL/配置/命令行”的工具输入,更少转义失败、更稳。
-
常见编排:
-
计划与分解 →
-
多工具并行执行(抓取/检索/编译/测试)→
-
可见式“工具前导消息”(preamble)汇报进度 →
-
汇总与下一步建议。
-
提示:API 仍保留 JSON Function Calling;Custom Tools 是“新增而不是替代”,适合人类本就写明文的那些工具输入(bash、SQL、正则、代码 diff、LaTeX 等)。
3. DeepSeek 家族速览:V3 与 R1 的工程画像
3.1 模型线与定位
-
DeepSeek‑V3:MoE(混合专家)+ MLA(多头潜在注意力)等优化,强调“算力效率/吞吐性价比”。
-
DeepSeek‑R1:后训练以强化学习为核心,强调推理能力(数学/代码/推断),开放权重、支持自托管。
3.2 开放与价格(API 端)
-
许可:R1 权重 MIT 许可(开放权重,可商用、可蒸馏)。
-
价格(以“每 100 万 tokens”为单位,含缓存价):
-
输入(命中缓存)$0.14;输入(未命中)$0.55;输出 $2.19。
-
-
上下文:常见 64K(部分平台支持到 128K,视托管与提供商而定)。
3.3 生态与落地位
-
适合隐私要求高、离线算力可用、预算敏感的场景;
-
与向量库(Milvus/Faiss)、检索框架(LangChain/LlamaIndex)、可视化日志(如自己写的 streamlit/Gradio)搭配,容易做出“可解释”的推理链。
4. GPT-5 vs DeepSeek:四维对比(能力/工具/上下文/价格)
4.1 概览对比表
维度 | GPT‑5(API 推理) | GPT‑5 chat‑latest(非推理) | DeepSeek‑R1(API,自托管) |
---|---|---|---|
定位 | 推理模型族:gpt-5 / mini / nano | ChatGPT 路由用的非推理模型 | 强化学习推理模型,开放权重 |
上下文 | 272k 输入 + 128k 推理/输出 ≈ 400k 总 | 由路由/场景决定 | 常见 64K(部分 128K) |
推理控制 | reasoning_effort :minimal…high | 无(由路由/提示控制) | 无专用参数(由提供商/温度等控制) |
输出控制 | verbosity :low/medium/high | 提示/路由 | 通过提示/温度/最大输出 |
工具调用 | 并行/链式 + Custom Tools(明文 + 正则/CFG + 可见式 preamble) | 统一工具链 | 常见 JSON/文本工具调用(平台相关) |
价格(USD/1M) | gpt‑5 :in $1.25 / out $10;mini $0.25/$2;nano $0.05/$0.40 | 同价 | in $0.55(miss)/$0.14(hit),out $2.19 |
代表性评测 | AIME’25 94.6、SWE‑bench 74.9、Aider 88、MMMU 84.2 | —— | 与 o1 同量级(官方/社区报告) |
部署形态 | 云 API(也进 MS 生态) | ChatGPT 前端 | 开放权重/自托管 + API |
注:DeepSeek 的上下文与工具行为因不同云商/版本有差异;自托管时由读者自行设定推理步数、采样、上下文扩展等策略。
4.2 能力维度拆解(工程视角)
-
编码/代码理解:GPT‑5 在真实工程评测(SWE‑bench Verified、Aider diff)上表现更强;对前端生成、跨文件理解、自动纠错更稳。
-
工具与代理:GPT‑5 在长链路并行工具、错误处理、可见式进度回报方面体验更好;DeepSeek 自托管的优势是可控性与场内数据闭环。
-
长上下文检索:GPT‑5 的 400K 总上下文让“多文档/日志/代码仓”的一次性检索更现实;DeepSeek 常以 64K/128K 为主,但可以通过切片检索 + 思维链压缩降低上下文需求。
-
成本/合规:DeepSeek API 单价低且有缓存价;GPT‑5 提供Prompt 缓存/Batch等降本特性,并在企业/协同连接器上更成熟。
5. 选型决策树
问题 1:是否需要强代理化(多工具、跨系统、长上下文)?
-
是 → 优先 GPT‑5(Responses API + Custom Tools + 并行工具链),DeepSeek 可作离线预处理或批处理补位;
-
否 → 进入问题 2。
问题 2:是否必须“数据不出域/本地算力优先”?
-
是 → DeepSeek‑R1 自托管为主,必要时以 GPT‑5 作为在线交互前台(只传元数据/摘要);
-
否 → 进入问题 3。
问题 3:预算是否极度敏感?
-
是 → 首轮以低价模型过滤(
gpt‑5‑mini
或 DeepSeek‑R1),达到复杂度阈值再切gpt‑5
高推理; -
否 → 直接
gpt‑5
,在关键环节开high
,其余用minimal/low
控制成本。
6. 实战一(GPT‑5):从代码审查到补丁提交的自动化代理
目标:给定 Issue/失败用例,自动检索 → 分析 → 生成补丁 → 运行测试 → 生成 PR 摘要。
6.1 工具编排思路
-
仓库检索工具(自定义明文工具,输入为“文件模式+关键函数名+可选正则”)
-
构建/测试工具(自定义明文工具,输入为 bash 脚本)
-
代码修改工具(JSON function,输入为 diff/patch 结构体)
-
进度汇报(preamble on/off:长任务时开启)
6.2 提示词骨架
系统:你是代码修复代理。优先最小修改,保持风格一致;所有变更附带原因与回滚提示。
用户:{Issue 摘要 + 失败用例 + 关键日志}
规则:
- 首轮使用 reasoning_effort=minimal + verbosity=low 给出“修复计划草案”(不写代码)。
- 确认后切换 reasoning_effort=high,按步骤调用工具:检索→编辑→构建→测试。
- 每次工具调用前输出 preamble:{当前步骤、目标、风险清单}。
- 失败重试:放宽检索范围或回滚上一步 patch。
6.3 Python(Responses API 示例)
以官方 SDK 为准,以下示例展示参数与 Custom Tools 思路(明文工具)。
from openai import OpenAIclient = OpenAI(api_key="${OPENAI_API_KEY}")# —— 定义两个自定义明文工具(示意) ——
custom_tools = [{"type": "custom","name": "repo_search","description": "在代码库中搜索符号或模式,返回文件路径与上下文片段",# 约束明文输入格式(正则/CFG 皆可,以下为正则示意)"input_format_regex": r"(?s)pattern: .+?\nfiles: .+?\nmax_results: \d+"},{"type": "custom","name": "run_ci","description": "执行 bash 脚本,返回stdout/stderr与退出码","input_format_regex": r"(?s)bash: .+"}
]plan = client.responses.create(model="gpt-5",reasoning={"effort": "minimal"}, # 等价于 reasoning_effort=minimalverbosity="low",tools=custom_tools,input=[{"role": "system", "content": "你是代码修复代理……(同上略)"},{"role": "user", "content": "<ISSUE 与失败用例>"}]
)
print(plan.output_text)# 确认后执行高推理+工具链
repair = client.responses.create(model="gpt-5",reasoning={"effort": "high"},verbosity="medium",tool_choice="auto",tools=custom_tools + [{"type": "function","name": "apply_patch","parameters": {"type": "object","properties": {"file": {"type": "string"},"diff": {"type": "string"}},"required": ["file", "diff"]}}],input=[{"role": "system", "content": "长任务请输出 preamble(中文),每步简要汇报。"},{"role": "user", "content": "请按计划执行修复。"}]
)
print(repair.output_text)
7. 实战二(DeepSeek):本地 RAG + 可视化推理链
目标:在自托管 R1 上实现“可解释”的检索增强问答,并把“思维/推导”可视化,方便审计。
7.1 部署与依赖
-
模型:DeepSeek‑R1(MIT 许可开放权重)。
-
框架:LangChain/LlamaIndex(二选一);
-
向量库:Milvus/Faiss;
-
可视化:使用 streamlit 快速搭 UI,把每轮“检索片段、思维链摘要、候选答案”展示为三栏。
7.2 关键技巧
-
分层检索:粗召回(BM25/向量)→ 精排(重打分)→ 证据去重(减少上下文冗余)。
-
“思维链摘要”:让模型先写“要点导图 + 证据映射”,再生成最终答案;
-
拒答阈值:给出“不确定→要求更多资料”的“安全出口”;
-
批处理:用 R1 处理大规模离线问答,线上仅在冲突/高风险时切到 GPT‑5 核验。
7.3 Python(DeepSeek API 示例)
以官方接口为准,下例展示“缓存友好”的调用姿势(假设返回头含缓存标记)。
import os, requestsAPI_KEY = os.getenv("DEEPSEEK_API_KEY")
url = "https://api.deepseek.com/chat/completions"payload = {"model": "deepseek-reasoner", # R1 推理模型"messages": [{"role": "system", "content": "你是审慎而诚实的研究助理,必要时明确拒答并说明需要的证据。"},{"role": "user", "content": "<检索到的证据片段>\n\n问题:……"}],"temperature": 0.2,"max_tokens": 1024
}resp = requests.post(url, json=payload, headers={"Authorization": f"Bearer {API_KEY}"})
print(resp.json()["choices"][0]["message"]["content"])# 读取响应头中的缓存命中/未命中(若平台提供)
print("Cache-Status:", resp.headers.get("X-Cache-Status", "unknown"))
延伸:零基础读者入门指引(可选)
对这个主题感兴趣、但还处在起步阶段的读者,可以从下面两本教材型内容开始系统上手(均含视频),最近价格都很便宜了:
-
《ChatGPT商业应用实操手册(226集视频课+217种场景应用)》:清华大学出版社出版,覆盖提示工程、流程自动化、办公/销售/运营等 200+ 场景,配套可复用模板,适合零基础到进阶。
-
《deepseek行业应用手册(微课视频版)》:中国水利水电出版社出版,聚焦本地/私有化与行业落地,丰富场景案例,适合希望快速搭建原型的读者。