当前位置: 首页 > news >正文

Windows/Linux系统 Ollama部署deepseek 大模型

Ollama 是一个开源工具,专门用于在本地计算机上运行和操作大型语言模型(LLM)

官方下载网站(https://ollama.ai/)

Windows系统安装方法

建议命令行安装(默认安装会直接安装到C盘)

OllamaSetup.exe/DIR=D:\software\ollama

大模型下载地址 -- 按需求下载  libraryBrowse Ollama's library of models.https://ollama.com/library/命令行导入大模型:

# 导入大模型
ollama create deepseek8b -f Modelfile # 查看
ollama list# 运行
ollama run deepseek8b

Modelfile 文件包含目标大模型路径

 FROM H:\2025-deepseek\llm_model\Deepseek8B\DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf

 效果展示:

启用远程访问

默认仅限本地访问,如需远程调用:

# 开放防火墙端口
New-NetFirewallRule -DisplayName "Ollama API" -Direction Inbound -Action Allow -Protocol TCP -LocalPort 11434# 启动 Ollama 时绑定到所有网络
ollama serve --host 0.0.0.0

 API接口 Python调用

import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"model": "deepseek8b","prompt": "你运行的大模型是那个版本,简洁回答","stream": True,}
)
print(response.json()['response'])

嗯,我现在需要分析一下这个用户的问题。他们说:“你运行的大模型是那个版本,简洁回答是最好的。”看起来用户是在询问我当前使用的模型版本,并且希望得到一个简明扼要的回答。

.......

</think>

我是由深度求索公司独立运行的DeepSeek-R1-Lite-Preview模型。

Linux系统安装方法

直接下载二进制
# 下载最新版 Ollama
curl -L https://ollama.ai/download/ollama-linux-amd64 -o ollamatar -xf ollama-linux-amd64.tgz# 移动到系统路径
sudo mv bin/ollama /usr/local/bin/# 赋予执行权限
chmod +x /usr/local/bin/ollama

启动 Ollama 服务

# 启动服务(前台运行)
ollama serve# 或作为后台服务(需 systemd)
cat <<EOF | sudo tee /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Restart=always
RestartSec=3[Install]
WantedBy=default.target
EOF# 启动并设置开机自启
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

测试可用性 

下载预训练模型(例如 phi)
ollama pull phi

验证模型运行

# 交互式测试
ollama run phi "How to check disk space in Red Hat?"

启用本地 API 接口

Ollama 默认提供 REST API(端口 11434):

# 测试 API
curl http://localhost:11434/api/generate -d '{"model": "phi","prompt": "Hello"
}'
API 接口示例
  • 对话模式

curl http://localhost:11434/api/chat -d '{"model": "phi","messages": [{ "role": "user", "content": "Who are you?" }]
}'

使用 Python 调用 API

import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"model": "phi", "prompt": "Explain RPM packages"}
)
print(response.json()["response"])

常见问题

  1. GPU 加速
    安装 NVIDIA 驱动和 CUDA,添加 --gpus all 参数(需 Docker 运行)。

  2. 端口冲突
    修改启动参数 ollama serve --host 0.0.0.0:11435

  3. 模型存储路径
    默认在 ~/.ollama/models,可通过环境变量 OLLAMA_MODELS 修改。

相关文章:

  • 区块链:什么是DeFi?
  • C++ 中 QVector 的判断与操作
  • C++:动态链接库(dll)的编写,__declspec 用法详解
  • C++ 函数模板
  • RNN工作原理和架构
  • ToolsSet之:TTS及Morse编解码
  • Matplotlib绘制矩阵图,plt.matshow/imshow 与 ax.pcolor(pcolormesh)方法的使用
  • Java集合框架初识
  • 基于CNN-LSTM融合模型的环卫车动态称重算法研究:从频率感知到精准质量估计
  • [科普] 计算机寻址
  • 关于 Kyber:抗量子密码算法 Kyber 详解
  • pyqt logger类与界面分开
  • ISO 绕过 Windows 11 硬件检查:TPM/Secure Boot/CPU/RAM 及 OOBE 网络验证的完整指南
  • 【已解决】win11安装驱动提示 “The file hash value is not in the specified catalog file...”
  • 索引——高效查询的关键
  • 龙芯7A1000桥片数据手册解读(时序)
  • Python 爬虫案例(不定期更新)
  • 缓存与加速技术实践-Kafka消息队列
  • 网络安全基础:从CIA三元组到密钥交换与消息认证
  • 【软考高级系统架构论文】论 SOA 在企业集成架构设计中的应用
  • php除了做网站还能做什么/网络推广外包费用
  • 网站建设多少钱鞋/技能培训有哪些科目
  • 网站做轮播图的意义/新闻10 30字
  • 如果建网站/东莞疫情最新消息今天新增
  • 网站建设合同注意事项/交换友情链接的渠道
  • jsp网站怎么做/关键词搜索趋势