当前位置: 首页 > news >正文

Dify中使用插件LocalAI配置模型供应商报错

服务器使用vllm运行大模型,今天在Dify中使用插件LocalAI配置模型供应商后,使用工作流的时候,报错:“Run failed: PluginInvokeError: {"args":{},"error_type":"ValueError","message":"User message content must be str"}”

场景:上传文件后,然后再次提问机会出现错误如下:

刚开始怀疑是模型参数之类的问题,但是用ollama配置的模型就不会报错。原因不明。于是改成使用Vllm插件重新添加模型供应商。

然后又可以开心的玩耍了。

相关文章:

  • [Java][Leetcode middle] 238. 除自身以外数组的乘积
  • 挖o心得(1)
  • BUFDS_GTE2,IBUFDS,BUFG缓冲的区别
  • 技术解码 | 腾讯云SRT弱网优化
  • Vue3 加快页面加载速度 使用CDN外部库的加载 提升页面打开速度 服务器分发
  • sqli-labs靶场23-28a关(过滤)
  • WHAT - 缓存命中 Cache Hit 和缓存未命中 Cache Miss
  • 掌握HTML文件上传:从基础到高级技巧
  • 我设计的一个安全的 web 系统用户密码管理流程
  • 国芯思辰| 轮速传感器AH741对标TLE7471应用于汽车车轮速度感应
  • 【Python-Day 14】玩转Python字典(上篇):从零开始学习创建、访问与操作
  • 【CPT】可重复性
  • C++(15):默认值(default)
  • UI自动化测试详解
  • 开源鸿蒙北向源码开发: 5.0kit化相关sdk编译
  • 【Win32 API】 lstrcpyA()
  • 中国 MRO 的市场概况及发展趋势
  • vscode debug node + 前端
  • Wise Disk Cleaner:免费系统清理工具,释放空间,提升性能
  • matlab建立整车模型,求汽车的平顺性
  • 【社论】城市更新,始终以人为核心
  • 国家卫健委通报:吊销肖某医师执业证书,撤销董某莹四项证书
  • 因港而兴,“长江黄金水道”上的宜宾故事
  • 南方降水频繁暴雨连连,北方高温再起或现40°C酷热天气
  • 证券日报:降准今日正式落地,年内或还有降准空间
  • 多条跨境铁路加速推进,谁是下一个“超级枢纽”?