当前位置: 首页 > news >正文

使用Ollama部署自己的本地模型

说明

服务器版本:CentOS10

Ollama版本:v0.11.6

下载模型

访问ollama官网

官网地址:Ollama Search 搜索需要的模型,这里以deepseek-r1为例

选择需要的模型版本

下载模型

这里以deepseek-r1:14b为例,下载速度取决于个人网速快慢

ollama pull deepseek-r1:14b

启动模型

等到模型下载完成后,启动模型

ollama run deepseek-r1:14b

模型启动之后可以直接在控制台和模型进行交互

查看运行中的模型

ollama ps

ollama 常用命令

查看已下载的模型

ollama list

查看运行中的模型

ollama ps

停止运行中的模型

ollama stop <model-name>
# 例如
ollama stop deepseek-r1:14b

删除下载的模型

ollama rm <model-name>
# 例如
ollama rm deepseer-r1:14b

其他命令

使用ollama --help可以查看所有提供的命令,以及如何使用

ollama --help

Ollama API

生成聊天内容

POST /api/chat

调用示例

curl http://localhost:11434/api/chat -d '{"model": "deepseek-r1:14b","messages": [{"role": "user","content": "你是谁?"}]
}'

响应示例

接口是流式输出,以下仅展示一条数据的结构

{"model": "deepseek-r1:7b","created_at": "2025-08-23T15:04:12.341768822Z","message": {"role": "assistant","content": ""},"done": false
}

其他API

想要查看ollama提供的api,可以查看github文档,文档中有详细的说明
https://github.com/ollama/ollama/blob/main/docs/api.md

http://www.dtcms.com/a/347128.html

相关文章:

  • LeetCode第1019题 - 链表中的下一个更大节点
  • IntelliJ IDEA 集成 ApiFox 操作与注解规范指南
  • 【K8s】微服务
  • 浙江龙庭翔新型建筑材料有限公司全屋定制:畅享品质生活新境界!
  • window将exe注册成服务
  • 【40页PPT】企业如何做好大数据项目的选型(附下载方式)
  • 说说你对Integer缓存的理解?
  • 商超高峰客流统计误差↓75%!陌讯多模态融合算法在智慧零售的实战解析
  • 基于 FastAPI 和 OpenFeature 使用 Feature Flag 控制业务功能
  • 【Game】Powerful——Punch and Kick(12.2)
  • Ape.Volo项目源码学习(1:源码下载及运行)
  • 【KO】前端面试题四
  • 08_正则表达式
  • goland编译过程加载dll路径时出现失败
  • 【golang】ORM框架操作数据库
  • 8.23 JavaWeb(登录 P156-P170)
  • 什么是多元线性回归,系数、自变量、因变量是什么,多元线性回归中的线性是什么
  • 【KO】前端面试五
  • yolo训练实例python篇(二)
  • Python训练营打卡 DAY 45 Tensorboard使用介绍
  • 【Golang】有关垃圾收集器的笔记
  • four people game
  • 【卷积神经网络详解与实例】1——计算机中的图像原理
  • 文件系统挂载详细分析(《图解Linux内核》虚拟文件系统篇笔记二)
  • 详细介绍将 AList 搭建 WebDav 添加到 PotPlayer 专辑 的方法
  • 基于Kubernetes StatefulSet的有状态微服务部署与持久化存储实践经验分享
  • JH-14回柱绞车优化设计cad+设计说明书+绛重
  • (论文速读)OverLoCK -上下文混合动态核卷积
  • OSI参考模型TCP/IP模型 二三事
  • 深入理解Web服务与HTTP协议