当前位置: 首页 > news >正文

Windows11下本地化部署AI开发环境(Dify+Ollama)

前言

        本次实践希望在Windows环境下本地化部署AI开发环境,通过Ollama下载运行模型,通过Dify搭建管理AI应用。

硬件环境

        AI大模型开发对硬件要求较高,理论上配置越高越好。本次搭建环境如下:

Windows系统(Windows11)+ CPU(i7-1260P)+ 内存(32G)+ 硬盘(越大越好)

Docker安装及使用

       Docker 是一个软件平台,让您可以快速构建、测试和部署应用程序。Docker 将软件打包成名为容器的标准化单元,这些单元具有运行软件所需的所有功能,包括库、系统工具、代码和运行时。

        Windows系统下docker的安装及使用参考文章【Windows11安装Docker-CSDN博客】

Ollama安装及使用

         ollama国内下载是一款开源的本地化大模型部署工具,用户可以一键轻松安装、配置和运行各种开源大模型。

        Windows系统下Ollama的安装及使用参考文章【Windows下Ollama安装及使用-CSDN博客】

Dify安装及使用

        Dify 是开源的 LLM 应用开发平台。提供从 Agent 构建到 AI workflow 编排、RAG 检索、模型管理等能力,轻松构建和运营生成式 AI 原生应用。

        Windows系统下Dify的安装及使用参考文章【Windows下Dify安装及使用-CSDN博客】

Dify配置Ollama

        Dify的大模型配置通过【设置】中的【模型供应商】进行配置。

Dify安装Ollama

        找到Ollama,点击【安装】进行安装。

添加Ollama模型

模型名称

基础URL

    Ollama在本地安装,Dify通过Docker容器安装,并不在同一个机器上,故不能用http://localhost:11434

        应该用本地局域网的IP地址,http://192.168.43.32:11434

环境变量

        设置完名称及URL后,点击保存报错。继续设置环境变量。

        环境变量中添加系统变量 OLLAMA_HOST 值为 0.0.0.0:11434

错误提示

如还提示错误信息

重启Ollama

        右下角找到下羊驼,点击【Quit Ollama】,退出。然后再在安装的程序里找到小羊驼重启。

退出

重启

添加完成

        重启再次保存不会报错,并且在Ollama的下面,多了一个添加好的llama3.2模型。

应用Ollama模型

        

测试通过

相关文章:

  • 【Kubernets知识】Secret组件更新大全
  • Python 爬取微店商品列表接口(item_search)的实战指南
  • 【ArcGISPro学习笔记】布局输出时图例总是有省略号怎么办?
  • React Native 从零开始完整教程(环境配置 → 国内镜像加速 → 运行项目)
  • Spark SQL 之 DAG
  • vite入门教程
  • 告别手动时代!物联网软件开发让万物自动互联
  • ESP32开发-通过ENC28J60模块实现以太网设备
  • K8S - GitOps 入门实战 - 自动发布与秒级回滚
  • Go 写一个简单的Get和Post请求服务
  • k8s平台:手动部署Grafana
  • Linux基础 -- Generic Netlink 框架详解与开发实践
  • 数据资产管理与AI融合:物联网时代的新征程
  • Wireshark使用教程
  • 进程、线程、进程间通信Unix Domain Sockets (UDS)
  • 【自然语言处理与大模型】大模型意图识别实操
  • 一文详解 Linux下的开源打印系统CUPS(Common UNIX Printing System)
  • 回收铼树脂RCX-5143
  • 航电系统之网络控制运动技术篇
  • 2025年4月通信科技领域周报(4.21-4.27):6G标准加速推进 空天地一体化网络进入实测阶段
  • 向左繁华都市,向右和美乡村,嘉兴如何打造城乡融合发展样本
  • 人民日报社论:坚定信心、奋发有为、创新创造——写在“五一”国际劳动节
  • 神舟十九号航天员乘组平安抵京
  • 朝鲜海军新型驱逐舰进行首次武器系统测试
  • 准80后湖北省财政厅副厅长徐晶华已调任襄阳市副市长
  • 上海开花区域结果,这项田径大赛为文旅商体展联动提供新样本