当前位置: 首页 > news >正文

llamafactory微调效果与vllm部署效果不一致如何解决

在llamafactory框架训练好模型之后,自测chat时模型效果不错,但是部署到vllm模型上效果却很差

这实际上是因为llamafactory微调时与vllm部署时的对话模板不一致导致的。

对应的llamafactory的代码为

而vllm启动时会采用大模型自己本身设置的对话模板信息

那么要让两个对话模板一致该如何解决呢?

在上面的template.py同级目录下写入代码,将json格式的对话模板转成jinja格式

# mytest.py
import sys
import os

# 将项目根目录添加到 Python 路径
root_dir = os.path.dirname(os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__)))))
sys.path.append(root_dir)

from llamafactory.data.template import TEMPLATES
from transformers import AutoTokenizer

# 1. 初始化分词器(任意支持的分词器均可)
tokenizer = AutoTokenizer.from_pretrained("/root/autodl-tmp/model/Qwen/Qwen2.5-VL-3B-Instruct")

# 2. 获取模板对象
template_name = "qwen"  # 替换为你需要查看的模板名称
template = TEMPLATES[template_name]

# 3. 修复分词器的 Jinja 模板
template.fix_jinja_template(tokenizer)

# 4. 直接输出模板的 Jinja 格式
print("=" * 40)
print(f"Template [{template_name}] 的 Jinja 格式:")
print("=" * 40)
print(tokenizer.chat_template)

运行上面的代码之后就会得到jinja格式的对话模板,将它存放进chat-template.jinja

{%- if tools %}
    {{- '<|im_start|>system\n' }}
    {%- if messages[0]['role'] == 'system' %}
        {{- messages[0]['content'] }}
    {%- else %}
        {{- 'You are a helpful assistant.' }}
    {%- endif %}
    {{- "\n\n# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
    {%- for tool in tools %}
        {{- "\n" }}
        {{- tool | tojson }}
    {%- endfor %}
    {{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
{%- else %}
    {%- if messages[0]['role'] == 'system' %}
        {{- '<|im_start|>system\n' + messages[0]['content'] + '<|im_end|>\n' }}
    {%- else %}
        {{- '<|im_start|>system\nYou are a helpful assistant.<|im_end|>\n' }}
    {%- endif %}
{%- endif %}
{%- for message in messages %}
    {%- if (message.role == "user") or (message.role == "system" and not loop.first) or (message.role == "assistant" and not message.tool_calls) %}
        {{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
    {%- elif message.role == "assistant" %}
        {{- '<|im_start|>' + message.role }}
        {%- if message.content %}
            {{- '\n' + message.content }}
        {%- endif %}
        {%- for tool_call in message.tool_calls %}
            {%- if tool_call.function is defined %}
                {%- set tool_call = tool_call.function %}
            {%- endif %}
            {{- '\n<tool_call>\n{"name": "' }}
            {{- tool_call.name }}
            {{- '", "arguments": ' }}
            {{- tool_call.arguments | tojson }}
            {{- '}\n</tool_call>' }}
        {%- endfor %}
        {{- '<|im_end|>\n' }}
    {%- elif message.role == "tool" %}
        {%- if (loop.index0 == 0) or (messages[loop.index0 - 1].role != "tool") %}
            {{- '<|im_start|>user' }}
        {%- endif %}
        {{- '\n<tool_response>\n' }}
        {{- message.content }}
        {{- '\n</tool_response>' }}
        {%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
            {{- '<|im_end|>\n' }}
        {%- endif %}
    {%- endif %}
{%- endfor %}
{%- if add_generation_prompt %}
    {{- '<|im_start|>assistant\n' }}
{%- endif %}

启动vllm推理框架时

vllm serve model(模型)--chat-template ./path-to-chat-template.jinja(jinja对话模板地址)

相关文章:

  • 多线程编程:条件变量
  • 17--华为防火墙智能选路全解:网络世界的智能导航系统
  • Ubuntu平台下安装Node相关环境
  • MATLAB 2024b深度学习,图神经网络(GNN)
  • Spring Data审计利器:@LastModifiedDate详解!!!
  • 作业(7)
  • 网络空间安全(42)Windows实战篇
  • 3.28-3 文档读取和插入
  • gnvm切换node版本号
  • DATEDIFF 函数
  • 容器主机CPU使用率突增问题一则
  • 设计模式之创建型5种
  • 05-SpringBoot3入门-整合SpringMVC(配置静态资源、拦截器)
  • git命令使用小记(打补丁)
  • Ubuntu 系统上完全卸载 CasaOS
  • qwen2.5vl技术报告解读
  • PyQt6实例_批量下载pdf工具_使用pyinstaller与installForge打包成exe文件
  • 蓝桥杯 - 中等 - 绝美宋词
  • 在 Solana 中实现映射表与嵌套映射表
  • PolarDB数据库表恢复实战指南:通过控制台恢复表的完整操作流程
  • 中国驻美大使:远离故土的子弹库帛书正随民族复兴踏上归途
  • 首次带人形机器人走科技节红毯,傅利叶顾捷:机器人行业没包袱,很多事都能从零开始
  • 朝鲜称将在各领域采取反制措施,应对美国敌对挑衅
  • 美官方将使用华为芯片视作违反美出口管制行为,外交部回应
  • 中国人民银行等四部门联合召开科技金融工作交流推进会
  • 《大风杀》导演张琪:为了不算计观众,拍了部不讨好的警匪片