当前位置: 首页 > news >正文

Docker运行Ollama

1.docker-compose启动ollama

按照 ollama docker-compose配置说明 配置并启动ollama容器,启动成功后,浏览器访问 http://localhost:11434 如果显示如下即代表成功
在这里插入图片描述

如果你的服务器支持GPU,可添加GPU参数支持,参考:https://hub.docker.com/r/ollama/ollama

2.Ollama指定要运行的模型

Ollama安装完毕后,还需要继续下载大模型,支持的大模型可以在 Ollama官网 找到。Ollama默认没有提供WEB界面,需要通过命令行来使用,先输入命令进入容器

# 进入容器
docker exec -it ollama /bin/bash # 指定ollama运行指定模型
# 第一次执行会自动下载模型1.5B 模型(大约1GB),下载完成后便可进入交互模式(命令行式对话)
# 也可直接只执行 pull 命令下载
ollama run deepseek-r1:1.5b# 或者只下载模型
ollama pull deepseek-r1:1.5b

3.RestFul访问Ollama

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:1.5b","prompt": "你好,世界!","stream": false
}'

Ollama常用命令

# 运行一个指定大模型
ollama run llama3:8b-text# 查看本地大模型列表
ollama list# 查看运行中的大模型
ollama ps# 删除本地指定大模型
ollama rm llama3:8b-text
http://www.dtcms.com/a/304830.html

相关文章:

  • stm32的can总线
  • 简历美容院:如何把“打杂经历“包装成“核心项目“?
  • 在Word和WPS文字中把全角数字全部改为半角
  • 《使用Qt Quick从零构建AI螺丝瑕疵检测系统》——7. AI赋能(上):训练你自己的YOLOv8瑕疵检测模型
  • 城市元宇宙:未来城市治理的革新路径
  • 【数据结构初阶】--二叉树(四)
  • 硬件学习笔记--73 电能表新旧精度等级对应关系
  • 温室材料:构筑绿色梦想的基石
  • LRU(Least Recently Used)原理及算法实现
  • Qt 移动应用发布与分发指南
  • Stable Diffusion推导与理解:从文本到图像的生成革命
  • 不用编程序无需联外网,将罗克韦尔(AB)PLC的标签数据存入SQL数据库
  • 以需求破局:DPVR AI Glasses 重塑 AI 眼镜产业生态
  • Apache Ignite 关于 **Executor Service(执行器服务)** 的介绍
  • Zynq SOC FPGA嵌入式裸机设计和开发教程自学笔记:GPIO扩展与中断控制技术,万字详解!!
  • 墨者:SQL注入下的文章汇总
  • AUTOSAR进阶图解==>AUTOSAR_SRS_LIN
  • 【LoRA微调】采用Lora微调时,假设设置的rank值为8,那么在微调时只会调整秩在8以下的矩阵还是只会调整秩等于8的矩阵
  • C++基础:模拟实现queue和stack。底层:适配器
  • openbmc 阈值sensor分析
  • 第二课 P-MOS管应用
  • 洛谷 P11227 [CSP-J 2024] 扑克牌
  • 微算法科技(NASDAQ:MLGO)应用区块链联邦学习(BlockFL)架构,实现数据的安全传输
  • Ika Network 正式发布,让 Sui 智能合约可管理跨链资产
  • 格雷码的应用场景
  • 光环云在2025WAIC联合发布“AI for SME 全球普惠发展倡议”
  • 银行回单识别和发票识别相结合的应用场景及技术方案
  • 20250729-day23
  • 【Mac版】Linux 入门命令行快捷键+联想记忆
  • RDD的checkpoint检查点机制(Checkpoint 与 Persist 的区别)