当前位置: 首页 > news >正文

使用docker中的ollama

假设容器名字为ollama-qihuang

进入容器,拉取deepseek-r1:7b模型:

docker exec -it ollama-qihuang bash
ollama pull deepseek-r1:7b

Ollama 模型管理教程(容器名:ollama-qihuang)

一、拉取官方模型(以 llama2 为例)
# 进入Ollama容器的交互式Shell
docker exec -it ollama-qihuang bash# 使用ollama CLI拉取官方模型(如llama2:7b)
ollama pull llama2:7b# 退出容器
exit
二、验证官方模型是否成功拉取
# 查看所有已下载的模型
docker exec ollama-qihuang ollama list# 预期输出(示例)
# NAME         TYPE     SIZE        MODIFIED
# llama2:7b    model    13.43 GB    2023-10-01 12:00:00

三、部署本地微调模型(以 deepseek-r1:7b-finetune 为例)

步骤 1:准备本地模型文件
  1. 将微调后的模型文件(通常为 GGML 格式)放入宿主机目录:

    mkdir -p ~/qihuang/ollama/models/custom-models
    cp /path/to/your/finetuned-model.bin ~/qihuang/ollama/models/custom-models/deepseek-r1:7b-finetune.bin
    
步骤 2:重启容器以加载新模型
# 停止并重新启动容器(确保挂载路径正确)
docker restart ollama-qihuang# 或重新创建容器(适用于首次部署)
docker run -d \--name ollama-qihuang \-p 9034:11434 \-v ~/qihuang/ollama/models:/models \  # 挂载包含微调模型的目录ollama/ollama:latest serve
步骤 3:通过 API 创建模型别名(可选)
curl -X POST http://localhost:9034/api/create \-H "Content-Type: application/json" \-d '{"name": "deepseek-r1:7b-finetune","path": "/models/custom-models/deepseek-r1:7b-finetune.bin","alias": "my-finetuned-model"}'

四、使用模型进行推理

1. 调用官方模型(llama2:7b)
curl http://localhost:9034/api/generate \-H "Content-Type: application/json" \-d '{"model": "llama2:7b","prompt": "写一首关于秋天的诗","temperature": 0.8}' | jq
2. 调用本地微调模型(deepseek-r1:7b-finetune)
curl http://localhost:9034/api/generate \-H "Content-Type: application/json" \-d '{"model": "deepseek-r1:7b-finetune",  # 或使用别名"my-finetuned-model""prompt": "根据微调数据回答问题:xxx","system": "你是一个专业的领域专家"}' | jq

五、模型管理常用命令

操作命令示例
查看所有模型docker exec ollama-qihuang ollama list
删除指定模型docker exec ollama-qihuang ollama delete llama2:7b
查看模型详细信息docker exec ollama-qihuang ollama info deepseek-r1:7b-finetune
列出正在运行的模型docker exec ollama-qihuang ollama running

六、注意事项

  1. 模型路径映射
    确保宿主机目录~/qihuang/ollama/models与容器内路径/models正确挂载,否则无法识别本地模型。

  2. 模型格式要求
    Ollama 支持 GGML 格式(.bin文件),微调模型需转换为 Ollama 兼容的格式(可通过ollama convert命令处理)。

  3. 权限问题
    若出现权限不足,需确保宿主机目录对 Docker 用户可读:

    chmod -R 755 ~/qihuang/ollama/models
    

七、进阶操作:量化模型以减少显存占用

# 进入容器创建4位量化模型
docker exec -it ollama-qihuang bash
ollama create deepseek-r1:7b-finetune-q4 -s deepseek-r1:7b-finetune -q q4_0
exit# 使用量化模型推理
curl http://localhost:9034/api/generate -d '{"model": "deepseek-r1:7b-finetune-q4","prompt": "量化模型测试"
}'

通过以上步骤,可快速管理 Ollama 的官方模型和自定义微调模型。如需调整容器端口或 GPU 配置,可参考Ollama 官方文档。

相关文章:

  • 【Docker基础】Docker核心概念:命名空间(Namespace)与资源隔离联系
  • 【零散技术】5分钟完成Odoo18 登陆页面全自定义
  • Spring Bean 生命周期:注册、初始化、注入及后置操作执行顺序
  • Go同步原语与数据竞争:原子操作(atomic)
  • 架构下的最终瓶颈:数据库如何破局?
  • java设计模式[1]之设计模式概览
  • java33
  • 23 - HaLoAttention模块
  • 从事算法工作对算法刷题量的需求
  • 从代码学习深度学习 - 子词嵌入 PyTorch版
  • JUC核心解析系列(三)——并发容器深度解析
  • acm模式stringstream
  • Windows平台进程加速方案研究:以网盘下载优化为例
  • Relin梦中门——第二章——感官
  • 带中断计数器的UART接收中断程序 (8259@400H/402H)
  • FreeRTOS定时器
  • Element Plus 去除下拉菜单周黑边
  • Ant Design 版本演进详解:从 1.x 到 5.x 的发展历程
  • docker安装mysql数据库及简单使用
  • 自恢复式保险丝如何实现自恢复?
  • 深圳正规网站建设/广州seo全网营销
  • 八宝山网站建设/企业推广宣传方案
  • 重庆网站制作的网站/seo是什么职位缩写
  • 个人网站需要什么内容/百度官方版
  • 跨境电商的现状及前景/seo诊断分析在线工具
  • iis限制网站空间大小/aso优化什么意思