当前位置: 首页 > news >正文

dify本地部署及添加ollama模型(ubuntu24.04)

  • 说明:ubuntu是虚拟机的,用的桥接模式,与本地同局域网不同ip地址。
    参考VM虚拟机网络配置(ubuntu24桥接模式):配置静态IP
  • 前提:需要有docker及docker-compose环境
    参考ubuntu24安装docker及docker-compose

源码下载

下载地址:https://github.com/langgenius/dify
切换到自己要存放该源码的目录下,拉取代码

# 没有git就安装一下
# 1.首先更新软件包列表
sudo apt update
# 2.安装git
sudo apt install git
# 3.查看git版本
git --version# 拉取
git clone https://github.com/langgenius/dify.git

修改.env环境配置信息

dify/docker目录下,直接copy就行

cp .env.example .env

拉取镜像并运行容器

dify/docker目录下

docker-compose up -d
# 启动后查看下
docker ps

在这里插入图片描述

访问(默认80端口)

  • 注册并登录
    本机的话直接localhost即可
    首次访问会让注册账号,我这里已经注册过了,所以显示登录界面。
    在这里插入图片描述
    在这里插入图片描述

添加ollama模型供应商

.env配置Ollama的API地址

在dify/docker下.env文件最后添加以下配置

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据实际部署环境调整IP)
OLLAMA_API_BASE_URL=http://192.168.XX.XX:11434

关闭并重启docker

docker-compose down
docker-compose up -d

测试docker是否能访问ollama

我本地ollama的模型
在这里插入图片描述
docker测试是否能调用ollama:

# 192.168.18.25:11434切换成自己ollama的ip地址docker exec -it docker-api-1 curl 192.168.XX.XX:11434/api/tags

在这里插入图片描述

配置ollama

右上角-设置-模型供应商-安装模型供应商:找到ollama并安装,安装完之后可以在上方待配置处看到
(我下载的这个dify版本,需要点击两次安装才能安装成功)
在这里插入图片描述
在这里插入图片描述
配置相应的ollama模型,并保存。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

相关文章:

  • Docker环境部署
  • Javaweb - 2 HTML
  • Windows 10 防火墙 0x8007045b 打不开
  • 数据库期末复习
  • AI是如何思考的,它的过程又是怎样
  • Python中布尔值在函数中的巧妙运用
  • 离线环境jenkins构建前端部署镜像
  • 数据库part2---子查询
  • GO Gin Web框架面试题及参考答案
  • SIMPL论文阅读
  • Deepseek+墨刀,1min快速生成流程图!
  • RPG34.AI攻击
  • 音视频之H.264的可伸缩编码SVC
  • AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年6月20日第114弹
  • el-tree的属性render-content自定义样式不生效
  • linux——C程序的编译与调试
  • Kotlin 中ArrayList、listOf、arrayListOf 和 mutableListOf区别
  • 学习路之uniapp--uniapp扩展uni-ui
  • 常用绘图工具网站推荐合集:打造高效可视化表达力!
  • 亚马逊云科技中国峰会
  • 网站优化设计方案怎么做/海底捞口碑营销案例
  • 做视频网站需要多少带宽/视频剪辑培训班一般学费多少
  • 空白网站怎么建立/如何做好网站的推广工作
  • wordpress回收站 恢复/网站优化seo推广服务
  • wordpress 打不开页面/seo怎么做
  • 山西网站建设平台/sem推广软件