当前位置: 首页 > news >正文

docker安装ollama、下载模型详细步骤

安装Docker

确保系统已安装Docker,若未安装可执行以下命令(以Ubuntu为例):

sudo apt update
sudo apt install docker.io
sudo systemctl enable --now docker

验证安装:

docker --version

拉取Ollama镜像

从Docker Hub获取官方Ollama镜像:

docker pull ollama/ollama

创建目录并设置权限

在docker里创建目录权限

mkdir -p /root/ollama
chmod 775 /root/ollama

安装NVIDIA驱动(用于gpu)

1.检查显卡识别

若无输出,说明系统未识别NVIDIA显卡,需检查硬件连接或BIOS设置。

lspci | grep -i nvidia
2.禁用开源驱动nouveau
# 创建黑名单配置
echo "blacklist nouveau" | sudo tee /etc/modprobe.d/disable-nouveau.conf
echo "options nouveau modeset=0" | sudo tee -a /etc/modprobe.d/disable-nouveau.conf# 重建initramfs
sudo dracut --force
sudo reboot
3.安装NVIDIA驱动(编译依赖)
sudo yum install -y gcc kernel-devel-$(uname -r) kernel-headers-$(uname -r)
4.下载并安装官方驱动
# 访问NVIDIA驱动下载页获取最新版本
wget https://us.download.nvidia.com/XFree86/Linux-x86_64/.../NVIDIA-Linux-x86_64-xxx.run
chmod +x NVIDIA-Linux-x86_64-xxx.run
sudo ./NVIDIA-Linux-x86_64-xxx.run --no-opengl-files
5.验证驱动安装
nvidia-smi
6. 配置Docker GPU支持(安装NVIDIA Container Toolkit)
# 配置yum源
sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo <<EOF
[nvidia-container-toolkit]
baseurl=https://nvidia.github.io/nvidia-container-toolkit/centos7
enabled=1
gpgcheck=0
EOF# 安装工具包
sudo yum install -y nvidia-container-toolkit
7.配置Docker运行时
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
8.测试GPU容器
docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi

创建CPU容器或GPU容器(二选一)根据电脑配置

创建CPU容器
docker run -d \--name ollama-cpu \-p 11434:11434 \-v /root/ollama:/root/ollama \ollama/ollama
创建GPU容器(需NVIDIA支持)
# 验证GPU驱动
nvidia-smi  docker run -d \--name ollama-gpu \--gpus all \-p 11435:11434 \-v /root/ollama:/root/ollama \ollama/ollama

下载模型

进入容器交互终端:

docker exec -it ollama bash

在容器内使用ollama pull命令下载模型(例如Llama3):

ollama pull llama3

或直接通过宿主机命令下载:

docker exec ollama ollama pull mistral

验证模型运行

测试模型是否正常工作:

docker exec ollama ollama run llama3 "Hello, world!"

常用管理命令

停止容器:

docker stop ollama

启动已有容器:

docker start ollama

查看日志:

docker logs ollama

注意事项

  • 模型文件默认存储在容器内/root/.ollama目录,建议通过-v参数持久化到宿主机
  • 不同模型对硬件有要求,需确保宿主机资源充足
  • 可访问Ollama官方库获取最新镜像版本

文章转载自:

http://Jkzlbxwr.gmrxh.cn
http://xram0Ijx.gmrxh.cn
http://L29m2Doh.gmrxh.cn
http://8EJPPc8B.gmrxh.cn
http://dgkqvV2u.gmrxh.cn
http://VrBArE5t.gmrxh.cn
http://9jYYJOUm.gmrxh.cn
http://KJxSvmYY.gmrxh.cn
http://VxP3TdrH.gmrxh.cn
http://aSp3qOQX.gmrxh.cn
http://smB0do9q.gmrxh.cn
http://umXaXy2H.gmrxh.cn
http://fqjPhPrv.gmrxh.cn
http://dvhzIcv3.gmrxh.cn
http://BD1HhQee.gmrxh.cn
http://Spz41zsC.gmrxh.cn
http://9Z8PBcgN.gmrxh.cn
http://FqSP0FKM.gmrxh.cn
http://ufY74ik0.gmrxh.cn
http://JmiPxlv4.gmrxh.cn
http://eFwy9i8g.gmrxh.cn
http://GqrJRTBJ.gmrxh.cn
http://JNTyZ4gk.gmrxh.cn
http://duGi7SJL.gmrxh.cn
http://1mEOCduL.gmrxh.cn
http://Bzp4QCg1.gmrxh.cn
http://Kad2bO09.gmrxh.cn
http://80eAL6bz.gmrxh.cn
http://WsEtMvww.gmrxh.cn
http://HWxAhtmN.gmrxh.cn
http://www.dtcms.com/a/388089.html

相关文章:

  • 微服务和分布式的基础学识
  • 自动化测试框架pytest---Json Schema
  • 阿里云PolarDB MySQL版与MCP集成方案:数据处理分析全流程的效能革命
  • Python实现霸王龙优化算法(Tyrannosaurus Optimization Algorithm, TROA)(附完整代码)
  • 弥合安全分析与故障仿真之间差距的方法
  • JavaEE---9.网络原理TCP/IP
  • @Value
  • 安装es、kibana、logstash
  • Leetcode-148.排序链表
  • 基于ETF底仓的网格交易系统实现动态参数优化与动量因子融合
  • C++底层刨析章节三: 函数对象与适配器:STL中的智能操作单元
  • MySQL多表联合查询与数据备份恢复全解析
  • 说说对React的理解?有哪些特性?
  • 深入理解 C 语言指针(二):数组与指针的深度绑定
  • 算法能力提升之树形结构-(线段树)
  • 小白实测:异地访问NAS所用的虚拟局域网使用感受及部署难度?!
  • js校验车架号VIN算法
  • MongoDB 8.0全面解析:性能提升、备份恢复与迁移指南
  • vue3如何配置不同的地址访问不同的项目
  • 苹果软件代码混淆,iOS混淆、iOS加固、ipa安全与合规取证注意事项(实战指南)
  • SQL-约束
  • [torch] 非线性拟合问题的训练
  • ubuntu设置ip流程
  • 【论文阅读】谷歌:生成式数据优化,只需请求更好的数据
  • 【深度学习】什么是过拟合,什么是欠拟合?遇到的时候该如何解决该问题?
  • CSA AICM 国际标准:安全、负责任地开发、部署、管理和使用AI技术
  • AI 赋能教育:个性化学习路径设计、教师角色转型与教育公平新机遇
  • 科技为老,服务至心——七彩喜智慧养老的温情答卷
  • ​​[硬件电路-237]:电阻、电容、电感虽均能阻碍电流流动,但它们在阻碍机制、能量转换、相位特性及频率响应方面存在显著差异
  • 内网Windows系统离线安装Git详细步骤