docker部署deepseek
使用docker-compose.yml部署deepseek
version: "3"
name: deepseeknetworks:deepseek_net:driver: bridgeservices:open-webui: container_name: open-webui # 容器名称image: ghcr.io/open-webui/open-webui:mainports:- "3000:8080"restart: always # 容器重启策略environment:- OLLAMA_BASE_URL=http://ollama:11434volumes:- ./deepseek:/work - ./deepseek/open-webui:/app/backend/data # 卷挂载(OpenWebUI数据目录)networks:- deepseek_net ollama:image: ollama/ollama # 镜像名称container_name: ollama # 容器名称ports:- "11434:11434" # 端口映射volumes:- ./deepseek/ollama/root:/root # 卷挂载(Ollama数据目录) - ./deepseek:/work restart: always # 容器重启策略networks:- deepseek_net# linux下使用watchtower自动更新容器# watchtower:# container_name: watchtower # 容器名称# image: containrrr/watchtower# volumes: # - /var/run/docker.sock:/var/run/docker.sock# command: --interval 300 open-webui # depends_on:# - open-webui # 依赖服务# networks:# - deepseek_net
docker-compose up -d
启动后,进入ollama容器,下载deepseek模型
docker exec -it 358b6f60ffe9 /bin/bash
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
在浏览器打开http://localhost:3000,注册后进入网站,就可以使用deepseek了,
测试对话
使用命令来一步步部署deepseek
ollama采用docker进行部署,首先拉取ollama docker镜像
docker pull ollama/ollama
创建容器
docker run -d --name ollama -v /home/LLM/ollama/models:/usr/share/ollama/.ollama/models -p 11434:11434 ollama/ollama:latest
- --name:容器名
- -v:硬盘挂载,
宿主机路径:容器内部路径
- -p:端口映射,
宿主机端口:容器内端口
根据容器ID来进入容器内部
docker exec -it 容器ID /bin/bash
模型可以在ollama官网查看
在容器内执行拉取模型
ollama pull deepseek-r1:7b
拉取完模型可以通过命令查看
ollama list
运行模型
ollama run deepseek-r1:7b
可以与模型对话
或者通过Python脚本调用API
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": "deepseek-r1:7b",
"prompt": "用JavaScript实现斐波那契数列",
"stream": False
}
)print(response.json()["response"])