当前位置: 首页 > news >正文

01_Docker 部署 Ollama 模型(支持 NVIDIA GPU)

01_Docker 部署 Ollama 模型(支持 NVIDIA GPU)

在本地运行大模型时,Docker + Ollama 是非常方便的选择。
不过如果你需要调用显卡加速,就必须正确配置 WSL2 + NVIDIA Container Toolkit
本文将完整梳理安装流程,并提供可直接使用的 docker-compose.yml 配置。


1️⃣ 安装 Ubuntu WSL2

首先需要一个完整的 Linux 环境,这里使用 Ubuntu WSL2

PowerShell(管理员模式) 中执行:

wsl --install -d Ubuntu
  • 自动安装最新的 Ubuntu,并启用 WSL2 内核。
  • 安装完成后,首次进入会提示你创建用户名和密码。

查看当前已安装的发行版:

wsl -l -v

2️⃣ 启动并配置 Ubuntu

进入 Ubuntu 环境:

wsl -d Ubuntu

在 Ubuntu 内更新环境:

sudo apt update
sudo apt install -y curl gnupg

3️⃣ 安装 NVIDIA Container Toolkit

如果要让 Docker 使用 GPU,需要安装 NVIDIA Container Toolkit

🔹 验证是否已支持 GPU

运行测试命令:

docker run --rm --gpus all nvidia/cuda:12.3.0-base-ubuntu22.04 nvidia-smi
  • 成功:输出与你本机 nvidia-smi 类似的 GPU 信息。
  • 失败(如提示 could not select device driver "nvidia"):说明需要安装 Toolkit。

🔹 安装 Toolkit(WSL2 内执行)

# 添加 NVIDIA 软件源
curl -fsSL https://mirrors.ustc.edu.cn/libnvidia-container/gpgkey | \sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpgcurl -s -L https://mirrors.ustc.edu.cn/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \sed 's#deb https://nvidia.github.io#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://mirrors.ustc.edu.cn#g' | \sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list# 安装 Toolkit
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit# 配置 Docker
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

⚠️ 提示:在 Windows 主机 上,也要确认 Docker Desktop 已启用 WSL 2 后端(Settings > General > Use WSL 2 based engine),并且勾选了 GPU 选项。


4️⃣ 安装 Ollama Desktop(可选)

在 Windows 上可以先安装 Ollama Desktop,用来测试模型运行。

例如运行一个模型:

ollama run qwen2:7b

如果模型下载卡在 100% 或报错超时,记得配置代理。

测试运行是否正常,例如:

ollama run qwen2:7b --prompt "你好,请自我介绍一下"

5️⃣ Docker 部署 Ollama

下面是一个完整的 docker-compose.yml 配置,支持 GPU 加速。

version: '3.8'services:ollama:image: ollama/ollama:latestcontainer_name: ollamarestart: unless-stoppedports:- "11434:11434"   # Ollama API 端口volumes:- E:/ollama/models:/root/.ollama/models   # 模型目录映射runtime: nvidiaenvironment:- OLLAMA_HOST=0.0.0.0:11434- OLLAMA_ORIGINS=*- NVIDIA_VISIBLE_DEVICES=all- NVIDIA_DRIVER_CAPABILITIES=compute,utility

启动容器:

docker-compose up -d

6️⃣ 测试 Ollama API

容器启动后,可以直接通过 API 调用模型:

curl http://localhost:11434/api/generate -d '{"model": "qwen2:7b","prompt": "写一首关于秋天的诗"
}'

如果能得到正常返回,说明部署成功 🎉。


✅ 总结

  1. 安装 WSL2 + Ubuntu
  2. 配置 NVIDIA Container Toolkit,让 Docker 支持 GPU
  3. 安装 Ollama(Desktop 或 Docker)
  4. 通过 docker-compose.yml 部署并运行

这样,你就能在 Windows 上用 Docker + GPU 运行大模型了 🚀。

http://www.dtcms.com/a/438006.html

相关文章:

  • 苏州新区网站制作wordpress视频格式
  • 一位Android用户的科技漫游手记
  • android中调用相册
  • 安卓基础组件031-Retrofit 网络请求框架
  • Redis 黑马点评-商户查询缓存
  • Android geckoview 集成,JS交互,官方demo
  • 【APK安全】Android 权限校验核心风险与防御指南
  • 单调队列与单调栈
  • 设计与优化Java API:构建高效、可维护的接口
  • Locality Sensitive Hashing (LSH) 详解:高效检测语言语句重复的利器
  • 阿里云网站开发零起步如何做设计师
  • 后端开发基础概念MVC以及Entity,DAO,DO,DTO,VO等概念
  • 七大排序算法的基本原理
  • Gateway-过滤器
  • 科普:Python 中,字典的“动态创建键”特性
  • Java 21 或 JavaFX 打包 exe 之 GraalVM Native Image 方案
  • 1.2.3 MCP(Model Context Protocol)
  • dede网站栏目管理网络科技是做什么的
  • 《Gdb 调试实战指南:不同风格于VS下的一种调试模式》
  • lua虚拟机的垃圾回收机制
  • 网站建设需要的材料wordpress自带的404
  • MPAndroidChart 用法解析和性能优化 - Kotlin Java 双版本
  • Qt中使用日志---Log4Qt
  • linux centos 7 解决终端提示符出现-bash-4.2的问题
  • MCP模型上下文协议实战:个人应用项目如何集成MCP?
  • Vue--Vue基础(一)
  • 外贸网站推广如何做郑佩佩 最新消息
  • 用VScode和msys2配置C/C++和wxWidgets
  • 【升级安卓9教程】华为Q21_Q21A_Q21C_Q21AQ_Q21AE_hi3798mv200线刷烧录包带adb权限
  • vite vue 打包后运行,路由首页加载不出来