当前位置: 首页 > news >正文

vLLM专题(十二)-推理输出(Reasoning Outputs)

vLLM 支持推理模型,例如 DeepSeek R1,这些模型旨在生成包含推理步骤和最终结论的输出。

推理模型在其输出中返回一个额外的 reasoning_content 字段,该字段包含导致最终结论的推理步骤。其他模型的输出中不存在此字段。

一、支持的模型

vLLM 目前支持以下推理模型:

  • DeepSeek R1 系列(deepseek_r1,用于解析 <think> ... </think> 格式的内容)

二、快速开始

要使用推理模型,你需要在向聊天补全端点发送请求时指定 --enable-reasoning--reasoning-parser 标志。--reasoning-parser 标志指定用于从模型输出中提取推理内容的解析器。

vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \
    --enable-reasoning --reasoning-parser deepseek_r1

接下来,向模型发送请求&#x

http://www.dtcms.com/a/35897.html

相关文章:

  • 回合制游戏文字版(升级)
  • 【GreenHills】GHS合并库文件
  • 2024-2025 学年广东省职业院校技能大赛 “信息安全管理与评估”赛项 技能测试试卷(一)
  • ROS ur10机械臂添加140夹爪全流程记录
  • Android Studio超级详细讲解下载、安装配置教程(建议收藏)
  • 第二章:辅助功能
  • FFmpeg进化论:从av_register_all手动注册到编译期自动加载的技术跃迁
  • 高中数学基础-平面向量
  • JMeter性能问题
  • 5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
  • Linux提权之提权脚本应用(十二)
  • halcon三维点云数据处理(二十五)moments_object_model_3d
  • 【qt链接mysql】
  • Android 轻量级双向 IPC 通信 Messenger
  • 前端项目打包过滤指定icon文件
  • 100天精通Python(爬虫篇)——第113天:爬虫基础模块之urllib详细教程大全
  • OpenCV(8):图像直方图
  • 【备赛】在keil5里面创建新文件的方法+添加lcd驱动
  • https和http有什么区别
  • VMware 与 CentOS 安装指南
  • Spring Core面试题
  • P1038 [NOIP 2003 提高组] 神经网络
  • 数据结构——静态顺序表,动态顺序表
  • 三维重建_点云重建方法及开源框架推荐
  • 基于 IMX6ULL 的环境监测自主调控系统
  • 网络安全-php安全知识点
  • 下载安装umamba教程使用命令
  • 2024 nginx已知 sztu.edu.cn.key和sztu.edu.cn.pem配置ssl
  • AIGC技术助力空军招飞,近屿智能开启智能人才培育新征程
  • Docker 搭建 Nginx 服务器