当前位置: 首页 > news >正文

Llamaindex Rag 报错

1:llamaindex 做rag 是加载模型使用openai_like 格式是找不到模型

在这里插入图片描述
在这里插入图片描述
加载模型代码如下图所示

llm = OpenAILike(model=r"/root/superti-tmp/models/Qwen-7B-Chat01",api_base=r"http://0.0.0.0:23333/v1",api_key="fake",context_window=4096,is_chat_model=True,is_function_calling_model=False,)
Settings.llm = llm

错误原因是找不到模型,此处的model 参数的值要和部署模型时的模型名称保持一致

lmdeploy serve api_server /root/xxx/ --tp=2 --model-nmae=qwen_chat

******此处需要注意的是lmdeploy 不是模型的模型名称并不是模型路径,openai_like 中 model 参数必须和部署模型名称保持一致即 --model-name 的值,因此需要修改成

  llm = OpenAILike(model="qwen_chat",api_base=r"http://0.0.0.0:23333/v1",api_key="fake",context_window=4096,is_chat_model=True,is_function_calling_model=False,)

2:RAG 请求大模型时报错

在这里插入图片描述
在这里插入图片描述
查看是框架报错是因为部署模型时没有指定对话模版,重新部署命令如下

lmdeploy serve api_server --tp=2 /root/superti-tmp/models/qewn_7B_merge/ --model-name=qwen_chat --chat-template=qwen

具体的对话模版根据部署的模型选择。

相关文章:

  • 利用Qt绘图随机生成带多种干扰信息的数字图片
  • 编译原理 期末速成
  • JMeter 教程:监控性能指标 - 第三方插件安装(PerfMon)
  • Jmeter(三) - 测试计划(Test Plan)的元件
  • OpenSSL详解
  • 【学习笔记】机器学习(Machine Learning) | 第七章|神经网络(4)
  • Web前端开发:JavaScript的使用
  • Claude 4 系列 Opus 4 与 Sonnet 4正式发布:Claude 4新特性都有哪些?
  • 树 Part 10
  • nginx 的反向代理 负载均衡 动静分离 重写
  • 利用条件编译实现RTT可控的调试输出
  • 精准核验,实时响应-身份证实名认证接口-身份证二要素核验
  • TCP为什么是三次握手,而不是二次?
  • Solana 数据实时访问的三大工具对比:哪种最适合你的应用?
  • PHP实现签名类
  • 外卖跑腿小程序评价系统框架搭建
  • 嵌入式鸿蒙openharmony应用开发环境搭建与工程创建实现
  • android studio第一次编译apk,用时6分钟
  • HarmonyOS NEXT 使用 relationalStore 实现数据库操作
  • 鸿蒙ArkTS-发请求第三方接口显示实时新闻列表页面
  • 企业网站建设哪里做网站好/前端性能优化有哪些方法
  • 做网站好的网站建设公司哪家好/软件开发培训机构排名
  • 企业网站建设的基本原则/排名前50名免费的网站
  • 网站建设售后培训/免费网站搭建
  • java 网站开发开什么书/网络公司有哪些
  • dw怎样做网站切换/网站运营管理