当前位置: 首页 > news >正文

[已解决]dify设置本地模型deepseek报错[Error 111]

原因:
在这里插入图片描述
总之,要将ollama默认的Tcp端口11434,暴露到网络中。

官方解决方案:https://docs.dify.ai/zh-hans/learn-more/use-cases/private-ai-ollama-deepseek-dify

如果你看不到,可以参考下面的内容。我用官方的指南也没能解决我的问题,最终是依靠deepseek解决的。

1.确保ollama服务启动并正常

在这里插入图片描述

2. 暴露TCP端口11434

在这里插入图片描述

3. 设置Dify中ollama模型的信息

我并没有按照下图去做。
在这里插入图片描述
而是,直接在Dify设置中,按照如下设置。关键是url:http://host.docker.internal:11434
在这里插入图片描述

4. 重启ollama

打开一个Powershell去重启,用cmd似乎无法运行命令。

$env:OLLAMA_HOST="0.0.0.0:11434"
ollama serve

在这里插入图片描述
当然,将OLLAMA_HOST直接设置在环境变量中,也可以。

总结

在这个过程中,重启了几次ollama,但没重启过Dify。最终结果:
置顶会多一个Ollama模型,也就是我们设置的deepseek-r1:32b模型。
在这里插入图片描述
然后就可以看到模型了:
设置本地模型成功
接下来就需要去验证,本地模型好不好用。

如果效果差强人意,我们还可以直连deepseek R1模型,毕竟有免费额度可用一段时间,价格也不算贵,DeepSeek属实是把价格打下来了。几块钱可以用挺久的。
目前价格:
右侧列是R1

相关文章:

  • vue深拷贝:1、使用JSON.parse()和JSON.stringify();2、使用Lodash库;3、使用深拷贝函数(采用递归的方式)
  • MemoryCache内存缓存数据
  • 算法仿真平台搭建1-FFMPEG+RtspSever快速搭建一个RTSP服务器
  • 【苍穹外卖】问题笔记
  • Pytorch框架06-现有网络模型(修改/使用/保存/加载)
  • Ubuntu 安装 Nginx并配置反向代理
  • 工作中遇到的设计模式整理
  • Uniapp 小程序接口封装与使用
  • 使用 Postman 访问 Keycloak 端点
  • 强化学习演进:GRPO 从何而来
  • 数组总结【代码随想录】
  • Docker数据卷操作实战
  • centos22.04 dpkg -l 输出状态标识含义
  • HTTP非流式请求 vs HTTP流式请求
  • 金融行业专题|某基金公司基于超融合信创平台支持人大金仓数据库的性能评测
  • 深入解析Tomcat目录结构
  • Grok 3 vs. DeepSeek vs. ChatGPT:2025终极AI对决
  • 【MATLAB中的图像数据结构】
  • 【奥卡姆剃刀原理-如何理解云计算和边缘计算 关键字摘取】
  • MATLAB下载安装教程(附安装包)2025最新版(MATLAB R2024b)
  • 林业公司网站模版/做网站企业
  • 各种类型网站建设口碑好/打开网站搜索
  • 安徽两学一做网站/谷歌竞价推广教程
  • 四川成都疫情最新动态/厦门站长优化工具
  • p2p网站建设公司排名/吉林关键词排名优化软件
  • 成都网站设计报价/网络信息发布平台