vLLM专题(十二)-推理输出(Reasoning Outputs)
vLLM 支持推理模型,例如 DeepSeek R1,这些模型旨在生成包含推理步骤和最终结论的输出。
推理模型在其输出中返回一个额外的 reasoning_content
字段,该字段包含导致最终结论的推理步骤。其他模型的输出中不存在此字段。
一、支持的模型
vLLM 目前支持以下推理模型:
- DeepSeek R1 系列(
deepseek_r1
,用于解析<think> ... </think>
格式的内容)
二、快速开始
要使用推理模型,你需要在向聊天补全端点发送请求时指定 --enable-reasoning
和 --reasoning-parser
标志。--reasoning-parser
标志指定用于从模型输出中提取推理内容的解析器。
vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \
--enable-reasoning --reasoning-parser deepseek_r1
接下来,向模型发送请求&#x