当前位置: 首页 > news >正文

vLLM专题(十二)-推理输出(Reasoning Outputs)

vLLM 支持推理模型,例如 DeepSeek R1,这些模型旨在生成包含推理步骤和最终结论的输出。

推理模型在其输出中返回一个额外的 reasoning_content 字段,该字段包含导致最终结论的推理步骤。其他模型的输出中不存在此字段。

一、支持的模型

vLLM 目前支持以下推理模型:

  • DeepSeek R1 系列(deepseek_r1,用于解析 <think> ... </think> 格式的内容)

二、快速开始

要使用推理模型,你需要在向聊天补全端点发送请求时指定 --enable-reasoning--reasoning-parser 标志。--reasoning-parser 标志指定用于从模型输出中提取推理内容的解析器。

vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \
    --enable-reasoning --reasoning-parser deepseek_r1

接下来,向模型发送请求&#x

相关文章:

  • 回合制游戏文字版(升级)
  • 【GreenHills】GHS合并库文件
  • 2024-2025 学年广东省职业院校技能大赛 “信息安全管理与评估”赛项 技能测试试卷(一)
  • ROS ur10机械臂添加140夹爪全流程记录
  • Android Studio超级详细讲解下载、安装配置教程(建议收藏)
  • 第二章:辅助功能
  • FFmpeg进化论:从av_register_all手动注册到编译期自动加载的技术跃迁
  • 高中数学基础-平面向量
  • JMeter性能问题
  • 5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
  • Linux提权之提权脚本应用(十二)
  • halcon三维点云数据处理(二十五)moments_object_model_3d
  • 【qt链接mysql】
  • Android 轻量级双向 IPC 通信 Messenger
  • 前端项目打包过滤指定icon文件
  • 100天精通Python(爬虫篇)——第113天:爬虫基础模块之urllib详细教程大全
  • OpenCV(8):图像直方图
  • 【备赛】在keil5里面创建新文件的方法+添加lcd驱动
  • https和http有什么区别
  • VMware 与 CentOS 安装指南
  • 埃尔多安:愿在土耳其促成俄乌领导人会晤
  • 泰山、华海、中路等山东险企综合成本率均超100%,承保业务均亏损
  • 国际奥委会举办研讨会,聚焦如何杜绝操纵比赛
  • 由我国牵头制定,适老化数字经济国际标准发布
  • 爱德华多·阿拉纳宣誓就任秘鲁新总理
  • 财政部党组召开2025年巡视工作会议暨第一轮巡视动员部署会