当前位置: 首页 > news >正文

利用ollama部署本地大模型 离线使用

方法1:下载ollama安装包

第一步:从ollama下载ollama的网址下载到本地,约1.2G;

第二步:通过sftp上载到服务器/user/local 目录,并解压缩:

tar -xzf ollama-linux-amd64.tgz

第三步:ollama --version,查看ollama是否安装成功,但是报错如下:

可以看到ollama要求 glibc_2.27库,如果采用这个方法 就需要安装这个库

方法2:利用docker安装ollama

第一步:拉取ollama镜像:docker pull ollama/ollama

第二步:运行:docker run -d  -v ollama-data:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

第三步:docker exec -it ollama ollama run deepseek-r1:7b(首次运行会自动拉取模型)

第四步:测试:curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "为什么天空是蓝色的?",
  "stream": false
}'

http://www.dtcms.com/a/355732.html

相关文章:

  • 告别Java依赖!GISBox三维场景编辑+服务发布一站式工具横评
  • 模型汇总-数学建模
  • echarts碰到el-tabs首次加载echarts宽度只有100px
  • LoRA模型的可训练参数解析(61)
  • 杂记 08
  • CnSTD+CnOCR的联合使用
  • vsgCs显示谷歌全球倾斜模型-节点
  • 9 从 “内存怎么存” 到 “指针怎么用”:计算机内存编址机制 + C 语言指针核心 + memory 模拟实现
  • “AI+制造”政策下,户外智能清洁如何跑出加速度?
  • 20250828-学习JumpServer开源堡垒机使用:统一访问入口 + 安全管控 + 操作审计
  • 复杂BI报表SQL
  • 集成电路学习:什么是TensorFlow
  • MCP Factory——专业 MCP Server 开发平台,正式发布,免费下载!
  • 一站式爬虫MCP服务器助力AI市场分析师
  • 微服务相关面试题
  • ComfyUI ControlNet 保姆级教程:开箱即用的示例工作流,精准控制AI图像生成
  • 记录git报错ssh: connect to host github.com port 22: Connection timed out,已解决
  • P3373 【模板】线段树 2
  • l六步完成麒麟操作系统挂载本地REPO源
  • 软考 系统架构设计师系列知识点之杂项集萃(134)
  • IPv6过渡技术IPv6 over IPv4
  • 【数据结构与算法】LeetCode 20.有效的括号
  • 跨网络通信:路由器如何实现全球互联
  • QT控件:【控件概述】【QWidget核心体系】【按钮类控件】【显示类控件】
  • 实战回忆录从webshell开始突破边界
  • 3D血管图像处理与连接系统
  • Odoo AI 智能查询系统
  • 【LeetCode每日一题】160.相交链表 206. 反转链表
  • AI智能供应链深度解析:从库存优化到风险预警,解锁企业降本提效新路径
  • 基于deepseek的Spring boot入门