当前位置: 首页 > news >正文

windows系统离线安装Ollama、创建模型(不使用docker)、coze调用

1. Ollama安装

参考:windows离线安装ollama

2. 模型创建

因为ollama运行在内网上,不能连接外网下载需要的模型,本文以chatgpt-20B版本作为示例。
可以从魔塔社区下载模型,但是安装的时候不知道为什么报错了,本文选择从镜像源全部下载:
首先在外网下载文件:
模型链接
在这里插入图片描述
python环境中运行:

modelscope download --model unsloth/gpt-oss-20b-GGUF gpt-oss-20b-F16.gguf --local_dir ./dir
在这里插入图片描述

下载完成后将gpt-oss-20b文件夹压缩后导入内网
导入后创建Modelfile文件:
在这里插入图片描述

其内容如下:

FROM ./gpt-oss-20b-F16.gguf

如果端口被占用可新建用户变量:

set OLLAMA_HOST=0.0.0.0:11435
在这里插入图片描述
运行ollama:
ollama serve

然后打开终端(CMD活PowerShell),进入该文件目录,运行以下代码导入模型:

ollama create gpt-oss-20b -f Modelfile

运行结果如下:
运行结果

运行结果
输入:ollama list 可查看当前安装的模型
在这里插入图片描述

3. Coze调用Ollama模型

注:也可以再Dify、langflow等低代码平台使用
参考上一篇文章部署的Coze:Coze离线部署

3.1 配置yaml文件

首先配置模型yaml文件,从template文件夹中拷贝出ollama的模板,然后重命名如下:
在这里插入图片描述
对yaml文件做如下修改:
修改id、name、icon_url:
在这里插入图片描述
修改base_url,该地址为部署ollama的服务器的地址,端口按照上述操作进行过修改,默认为11434
api_key为空;
model为ollama部署的模型名称
在这里插入图片描述
修改完成之后保存,在docker目录下运行以下命令重启coze:

docker-compose up -d --force-recreate
在这里插入图片描述

3.2 coze调用

coze创建智能体之后打开,选择gpt模型,发送对话,得到响应即为成功调用:
coze调用

http://www.dtcms.com/a/363508.html

相关文章:

  • 51c大模型~合集177
  • Swift 解法详解:LeetCode 369《给单链表加一》
  • 研发团队缺乏统一文档模板怎么办
  • 苹果开发中什么是Storyboard?object-c 和swiftui 以及Storyboard到底有什么关系以及逻辑?优雅草卓伊凡
  • 【后端】Docker 常用命令详解
  • 构建企业级区块链网络:基于AWS EC2的弹性、高可用解决方案
  • 2025软件测试面试热点问题,3天刷完你的软件测试就牛了
  • 不同编译器之间代码转换
  • Java学习笔记-零基础学MySQL(二)
  • QT C++传递 map 给qml 中访问的两种方式
  • 深度学习容器化部署
  • Nginx 调度算法全解析:从基础到高级的负载均衡策略
  • HOW - 在浏览器下载一个 Excel 表格文件
  • Qt Demo(3) 之 deepseek 帮我写的关于图像显示的小界面
  • 漫画短剧小程序系统开发:从0到1的核心架构与思路
  • Redis 缓存雪崩实战:从监控告警到3层防护的完整修复
  • 【读论文】美团开源MOE大模型LongCat-Flash
  • Pod自动重启问题排查:JDK 17 EA版本G1GC Bug导致的应用崩溃
  • 线上排查bug的命令
  • 企业微信员工聊天记录能看吗?合规管理三要素一次性说清
  • 企业微信怎么用能高效获客?拆解体检品牌如何实现私域营收提升
  • Windows 和 Linux 服务器 IP 与域名强制绑定方法
  • Zabbix7代理方式监控oracle 23.3
  • C++多线程编程:std::thread, std::async, std::future
  • PHP 8.x与现代Web开发:性能、安全与生态进化
  • 数据库入门实战版
  • 深度学习篇---SGD优化器
  • Java反序列化漏洞揭秘:从原理到攻击实战
  • RabbitMQ消息堆积问题排查:concurrentConsumers 配置的坑与解决方案
  • 网络共享协议