【Mac下通过Brew安装Ollama 】部署 DeepSeek 轻量模型(实测版)
文章目录
- 一、前言
- 二、准备工作
- (一)环境要求
- (二)工具准备
- 三、安装 Ollama(实测流程)
- (一)Brew 安装与重试机制
- (二)启动 Ollama 后台服务(关键步骤)
- (三)验证 Ollama 版本
- 四、部署 DeepSeek 轻量模型(解决命令差异问题)
- (一)版本差异说明
- (二)拉取并启动 `deepseek-r1:7b`(实测案例)
- 五、模型使用与验证(实测交互示例)
- (一)基础对话测试
- (二)退出与重启
- (三)查看已安装模型
- 六、常见问题解决(补充实测经验)
- (一)Ollama 安装失败(`curl: (92) PROTOCOL_ERROR`)
- (二)`ollama search` 命令失效
- (三)模型启动无响应(输入无反馈)
- (四)模型下载速度慢
- 七、总结
一、前言
若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力!有问题请私信或联系邮箱:funian.gm@gmail.com
Ollama 是一款轻量级本地大模型部署工具,支持一键启动主流开源模型,无需复杂配置;DeepSeek 轻量模型(如 deepseek-r1:7b)则以「低资源占用+高性能」为特点,4.7GB 左右的体积在 Mac(尤其是 Apple Silicon 芯片机型)上运行流畅,非常适合本地开发测试、离线调试等场景。
本文基于 Ollama 0.12.6 版本(实测稳定),补充实际操作中遇到的「下载中断重试」「服务启动依赖」「版本命令差异」等问题,提供可落地的精准部署流程。

二、准备工作
(一)环境要求
- 操作系统:macOS 12.0+(实测 Apple M1/M2/M3 芯片兼容,Intel 芯片需验证)
- 硬件配置:≥8GB 内存(推荐 16GB 以上,避免卡顿),≥10GB 空闲磁盘(模型本身约 4.7GB,预留缓存空间)
- 网络环境:需稳定外网(模型下载依赖 GitHub Container Registry,可能需要多次重试)
(二)工具准备
需提前安装 Homebrew(Mac 包管理工具),已安装可跳过:
# 安装命令(复制到终端执行)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
验证安装成功:
brew --version
# 成功输出示例:Homebrew 4.3.2(版本号可能不同,有输出即正常)
三、安装 Ollama(实测流程)
(一)Brew 安装与重试机制
通过 Brew 安装 Ollama,首次可能因网络波动失败,直接重试即可:
brew install ollama
实测可能遇到的问题:
- 报错
curl: (92) HTTP/2 PROTOCOL_ERROR:因网络中断导致包下载失败,重新执行brew install ollama即可(Brew 支持断点续传)。
安装成功的终端输出参考:
==> Pouring ollama--0.12.6.arm64_sequoia.bottle.tar.gz
==> Caveats
To start ollama now and restart at login:brew services start ollama
Or, if you don't want/need a background service you can just run:OLLAMA_FLASH_ATTENTION="1" OLLAMA_KV_CACHE_TYPE="q8_0" /opt/homebrew/opt/ollama/bin/ollama serve
==> Summary
🍺 /opt/homebrew/Cellar/ollama/0.12.6: 8 files, 27.8MB
(二)启动 Ollama 后台服务(关键步骤)
Ollama 依赖后台服务运行,必须启动服务否则无法与模型交互:
# 启动服务并设置开机自启
brew services start ollama
验证服务状态:
brew services list
# 输出中若有「ollama started」即表示服务正常运行
(三)验证 Ollama 版本
确认安装的版本为 0.12.6(本文实测版本):
ollama --version
# 成功输出:ollama version is 0.12.6
四、部署 DeepSeek 轻量模型(解决命令差异问题)
(一)版本差异说明
Ollama 0.12.6 暂不支持 ollama search 命令(实测执行会报错 Error: unknown command "search" for "ollama"),需直接使用官方公布的模型标签拉取。
DeepSeek 适合 Mac 的轻量模型标签(实测可用):
- 通用场景:
deepseek-r1:7b(约 4.7GB,平衡性能与体积) - 代码场景:
deepseek-coder:lite(约 1.5GB,轻量代码生成) - 基础场景:
deepseek:lite(约 2.5GB,入门级通用模型)
(二)拉取并启动 deepseek-r1:7b(实测案例)
直接执行以下命令,Ollama 会自动下载模型并进入交互界面:
ollama run deepseek-r1:7b
实测拉取过程(需耐心等待,进度条满即完成):
pulling manifest
pulling 96c415656d37: 100% ▕██████████████████▏ 4.7 GB
pulling c5ad996bda6e: 100% ▕██████████████████▏ 556 B
pulling 6e4c38e1172f: 100% ▕██████████████████▏ 1.1 KB
pulling f4d24e9138dd: 100% ▕██████████████████▏ 148 B
pulling 40fb844194b2: 100% ▕██████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
>>> # 出现此符号表示进入模型交互界面
五、模型使用与验证(实测交互示例)
(一)基础对话测试
在 >>> 提示符后输入问题,模型会实时响应:
>>> 你好,介绍一下自己
Hello! 我是 DeepSeek-R1,一款由深度求索(DeepSeek)开发的轻量级大模型。我可以协助你解决问题、回答疑问,或者进行日常交流。有什么我能帮你的吗?😊>>> 用 Python 写一个简单的冒泡排序
以下是 Python 实现的冒泡排序算法:def bubble_sort(arr):n = len(arr)# 遍历所有数组元素for i in range(n):# 最后 i 个元素已经就位for j in range(0, n-i-1):# 遍历数组从 0 到 n-i-1# 交换如果当前元素大于下一个元素if arr[j] > arr[j+1]:arr[j], arr[j+1] = arr[j+1], arr[j]return arr# 测试示例
arr = [64, 34, 25, 12, 22, 11, 90]
bubble_sort(arr)
print("排序后的数组:", arr)
(二)退出与重启
- 退出交互:输入
/exit并回车,返回终端命令行。 - 重启模型:无需重新下载,直接执行
ollama run deepseek-r1:7b即可快速启动。
(三)查看已安装模型
ollama list
# 实测输出(安装后显示):
# NAME ID SIZE MODIFIED
# deepseek-r1:7b 8e6871999988 4.7 GB 10 minutes ago
六、常见问题解决(补充实测经验)
(一)Ollama 安装失败(curl: (92) PROTOCOL_ERROR)
- 原因:网络波动导致 Homebrew 从 GHCR 仓库拉取包中断。
- 解决:重新执行
brew install ollama,Brew 会自动续传或重新下载,多试几次即可成功。
(二)ollama search 命令失效
- 原因:Ollama 0.12.6 版本未包含
search功能(高版本已支持,低版本需手动查询)。 - 解决:
- 访问 Ollama 官方模型库:https://ollama.com/library
- 搜索「deepseek」获取最新模型标签(如
deepseek-r1:7b),直接用标签拉取。
(三)模型启动无响应(输入无反馈)
- 原因:未启动 Ollama 后台服务,模型无法加载。
- 解决:执行
brew services start ollama,确认服务状态为started后重新启动模型。
(四)模型下载速度慢
- 原因:境外服务器连接不稳定。
- 解决:可尝试切换网络(如手机热点),或耐心等待(Ollama 支持断点续传,中途断网后重新执行命令会继续下载)。
七、总结
基于 Ollama 0.12.6 实测,Mac 部署 DeepSeek 轻量模型的核心流程为:
「Brew 安装 Ollama(带重试)→ 启动后台服务 → 用标签拉取 deepseek-r1:7b → 交互测试」。
重点注意:Ollama 服务必须启动,低版本无 search 命令需手动指定模型标签。deepseek-r1:7b 模型在 16GB 内存的 M1 Mac 上响应延迟约 1-3 秒,适合本地开发、离线调试或学习大模型交互逻辑。
后续可参考 Ollama 官方文档(https://ollama.com/docs)开发 API 接口、自定义模型参数或进行微调。
