当前位置: 首页 > news >正文

ollma dify 搭建合同审查助手

目录

ollma下载地址:

qwen3 模型下载

这个自动下载,下载后自动运行。 

配置环境变量:


ollma下载地址:

Download Ollama on macOS

qwen3 模型下载

ollama  pull qwen3:8b

这个自动下载,下载后自动运行。 

ollama run qwen3:0.6b

ollama run qwen3:8b

配置环境变量:修改监听后很慢
 

OLLAMA_HOST
0.0.0.0:11434
OLLAMA_MODELS
C:\Users\Administrator\.ollama\models

变快的方法:

OLLAMA_HOST:127.0.0.1:11434

测试命令:

curl http://192.168.1.8:11434/api/tags
    ollama list 

    模型配置url:

    参考:https://zhuanlan.zhihu.com/p/1925558582130217565

    http://host.docker.internal:11434

    模型名称: qwen3:8b

    模型名称中填写上一步下载的模型,如果不知道模型名称可以打开cmd,输入ollama list查看已经安装的模型。基础URL代表的是Ollama 服务地址,Ollama是默认暴露11434端口进行API调用,如果Dify是通过Docker部署的话,在基础URL中填入http://host.docker.internal:11434即可,如果是其他方式部署的Dify,可以参考帮助文档:https://docs.dify.ai/zh-hans/development/models-integration/ollama。剩余参数保持默认即可。最后点击保存


    如果保存按钮变成灰色并且迟迟没有保存成功,可以参考一下步骤重新启动Dify的Docker服务以及重新启动大模型。
    进入到Dify的工程文件,找到docker文件夹里的.env文件,用记事本打开,并在最后添加以下内容:

    #启用自定义模型
    CUSTOM_MODEL_ENABLED=true
    #指定ollama的API地址
    OLLAMA_API_BASE_URL=host.docker.internal:11434
    

    http://www.dtcms.com/a/286371.html

    相关文章:

  • RabbitMQ—TTL、死信队列、延迟队列
  • ChatGPT Agent技术架构探析
  • 读书笔记(学会说话)
  • 变频器实习总结3 ISU单元 船舶电力系统
  • 锁步核,为什么叫锁步核?
  • jar命令提取 JAR 文件
  • AI 驱动的仪表板:从愿景到 Kibana
  • MySQL之SQL 优化全攻略:从原理到实战
  • 2025年华为认证之HCIE-云计算方向的报考流程
  • STM32之TB6612电机驱动模块
  • Oracle 11g RAC 高可用集群部署最佳实践
  • Level-MC 8”深暗之域“
  • 面向对象三大特性---继承
  • 大数据安全规划总体方案
  • 【深度学习】神经网络 批量标准化-part6
  • 在 OpenSUSE Tumbleweed 和 Leap 上安装 VirtualBox
  • Maven插件检测全路径名冲突如何开发Maven插件
  • AUTOSAR进阶图解==>AUTOSAR_SWS_E2ETransformer
  • 【加解密与C】Rot系列(二)Rot13
  • LVS(Linux virual server)
  • 【Git专栏】git如何切换到某个commit(超详细)
  • Java基础篇
  • Triton Inference Server 使用详解与常见问题汇总
  • 数据库模型异常问题深度解析:冗余与操作异常
  • 《在亚马逊平台运营:从专利困境到功能利用全指南》
  • 【数据结构】堆(下)+ 二叉树
  • 深度学习笔记002-引言--日常生活总的机器学习、训练模型的过程、关键组件、各种机器学习问题
  • 如何在服务器上获取Linux目录大小
  • 使用python读取json数据,简单的处理成元组数组
  • 验证大语言模型不会算数但可以编写算数的程序