当前位置: 首页 > news >正文

【Mac下通过Brew安装Ollama 】部署 DeepSeek 轻量模型(实测版)

文章目录

    • 一、前言
    • 二、准备工作
      • (一)环境要求
      • (二)工具准备
    • 三、安装 Ollama(实测流程)
      • (一)Brew 安装与重试机制
      • (二)启动 Ollama 后台服务(关键步骤)
      • (三)验证 Ollama 版本
    • 四、部署 DeepSeek 轻量模型(解决命令差异问题)
      • (一)版本差异说明
      • (二)拉取并启动 `deepseek-r1:7b`(实测案例)
    • 五、模型使用与验证(实测交互示例)
      • (一)基础对话测试
      • (二)退出与重启
      • (三)查看已安装模型
    • 六、常见问题解决(补充实测经验)
      • (一)Ollama 安装失败(`curl: (92) PROTOCOL_ERROR`)
      • (二)`ollama search` 命令失效
      • (三)模型启动无响应(输入无反馈)
      • (四)模型下载速度慢
    • 七、总结

一、前言

若对您有帮助的话,请点赞收藏加关注哦,您的关注是我持续创作的动力!有问题请私信或联系邮箱:funian.gm@gmail.com

Ollama 是一款轻量级本地大模型部署工具,支持一键启动主流开源模型,无需复杂配置;DeepSeek 轻量模型(如 deepseek-r1:7b)则以「低资源占用+高性能」为特点,4.7GB 左右的体积在 Mac(尤其是 Apple Silicon 芯片机型)上运行流畅,非常适合本地开发测试、离线调试等场景。

本文基于 Ollama 0.12.6 版本(实测稳定),补充实际操作中遇到的「下载中断重试」「服务启动依赖」「版本命令差异」等问题,提供可落地的精准部署流程。

在这里插入图片描述

二、准备工作

(一)环境要求

  • 操作系统:macOS 12.0+(实测 Apple M1/M2/M3 芯片兼容,Intel 芯片需验证)
  • 硬件配置:≥8GB 内存(推荐 16GB 以上,避免卡顿),≥10GB 空闲磁盘(模型本身约 4.7GB,预留缓存空间)
  • 网络环境:需稳定外网(模型下载依赖 GitHub Container Registry,可能需要多次重试)

(二)工具准备

需提前安装 Homebrew(Mac 包管理工具),已安装可跳过:

# 安装命令(复制到终端执行)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

验证安装成功:

brew --version
# 成功输出示例:Homebrew 4.3.2(版本号可能不同,有输出即正常)

三、安装 Ollama(实测流程)

(一)Brew 安装与重试机制

通过 Brew 安装 Ollama,首次可能因网络波动失败,直接重试即可:

brew install ollama

实测可能遇到的问题

  • 报错 curl: (92) HTTP/2 PROTOCOL_ERROR:因网络中断导致包下载失败,重新执行 brew install ollama 即可(Brew 支持断点续传)。

安装成功的终端输出参考:

==> Pouring ollama--0.12.6.arm64_sequoia.bottle.tar.gz
==> Caveats
To start ollama now and restart at login:brew services start ollama
Or, if you don't want/need a background service you can just run:OLLAMA_FLASH_ATTENTION="1" OLLAMA_KV_CACHE_TYPE="q8_0" /opt/homebrew/opt/ollama/bin/ollama serve
==> Summary
🍺  /opt/homebrew/Cellar/ollama/0.12.6: 8 files, 27.8MB

(二)启动 Ollama 后台服务(关键步骤)

Ollama 依赖后台服务运行,必须启动服务否则无法与模型交互:

# 启动服务并设置开机自启
brew services start ollama

验证服务状态:

brew services list
# 输出中若有「ollama   started」即表示服务正常运行

(三)验证 Ollama 版本

确认安装的版本为 0.12.6(本文实测版本):

ollama --version
# 成功输出:ollama version is 0.12.6

四、部署 DeepSeek 轻量模型(解决命令差异问题)

(一)版本差异说明

Ollama 0.12.6 暂不支持 ollama search 命令(实测执行会报错 Error: unknown command "search" for "ollama"),需直接使用官方公布的模型标签拉取。

DeepSeek 适合 Mac 的轻量模型标签(实测可用):

  • 通用场景:deepseek-r1:7b(约 4.7GB,平衡性能与体积)
  • 代码场景:deepseek-coder:lite(约 1.5GB,轻量代码生成)
  • 基础场景:deepseek:lite(约 2.5GB,入门级通用模型)

(二)拉取并启动 deepseek-r1:7b(实测案例)

直接执行以下命令,Ollama 会自动下载模型并进入交互界面:

ollama run deepseek-r1:7b

实测拉取过程(需耐心等待,进度条满即完成):

pulling manifest 
pulling 96c415656d37: 100% ▕██████████████████▏ 4.7 GB                         
pulling c5ad996bda6e: 100% ▕██████████████████▏  556 B                         
pulling 6e4c38e1172f: 100% ▕██████████████████▏ 1.1 KB                         
pulling f4d24e9138dd: 100% ▕██████████████████▏  148 B                         
pulling 40fb844194b2: 100% ▕██████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
>>>  # 出现此符号表示进入模型交互界面

五、模型使用与验证(实测交互示例)

(一)基础对话测试

>>> 提示符后输入问题,模型会实时响应:

>>> 你好,介绍一下自己
Hello! 我是 DeepSeek-R1,一款由深度求索(DeepSeek)开发的轻量级大模型。我可以协助你解决问题、回答疑问,或者进行日常交流。有什么我能帮你的吗?😊>>> 用 Python 写一个简单的冒泡排序
以下是 Python 实现的冒泡排序算法:def bubble_sort(arr):n = len(arr)# 遍历所有数组元素for i in range(n):# 最后 i 个元素已经就位for j in range(0, n-i-1):# 遍历数组从 0 到 n-i-1# 交换如果当前元素大于下一个元素if arr[j] > arr[j+1]:arr[j], arr[j+1] = arr[j+1], arr[j]return arr# 测试示例
arr = [64, 34, 25, 12, 22, 11, 90]
bubble_sort(arr)
print("排序后的数组:", arr)

(二)退出与重启

  • 退出交互:输入 /exit 并回车,返回终端命令行。
  • 重启模型:无需重新下载,直接执行 ollama run deepseek-r1:7b 即可快速启动。

(三)查看已安装模型

ollama list
# 实测输出(安装后显示):
# NAME              ID              SIZE    MODIFIED
# deepseek-r1:7b    8e6871999988    4.7 GB  10 minutes ago

六、常见问题解决(补充实测经验)

(一)Ollama 安装失败(curl: (92) PROTOCOL_ERROR

  • 原因:网络波动导致 Homebrew 从 GHCR 仓库拉取包中断。
  • 解决:重新执行 brew install ollama,Brew 会自动续传或重新下载,多试几次即可成功。

(二)ollama search 命令失效

  • 原因:Ollama 0.12.6 版本未包含 search 功能(高版本已支持,低版本需手动查询)。
  • 解决
    1. 访问 Ollama 官方模型库:https://ollama.com/library
    2. 搜索「deepseek」获取最新模型标签(如 deepseek-r1:7b),直接用标签拉取。

(三)模型启动无响应(输入无反馈)

  • 原因:未启动 Ollama 后台服务,模型无法加载。
  • 解决:执行 brew services start ollama,确认服务状态为 started 后重新启动模型。

(四)模型下载速度慢

  • 原因:境外服务器连接不稳定。
  • 解决:可尝试切换网络(如手机热点),或耐心等待(Ollama 支持断点续传,中途断网后重新执行命令会继续下载)。

七、总结

基于 Ollama 0.12.6 实测,Mac 部署 DeepSeek 轻量模型的核心流程为:
「Brew 安装 Ollama(带重试)→ 启动后台服务 → 用标签拉取 deepseek-r1:7b → 交互测试」。

重点注意:Ollama 服务必须启动,低版本无 search 命令需手动指定模型标签。deepseek-r1:7b 模型在 16GB 内存的 M1 Mac 上响应延迟约 1-3 秒,适合本地开发、离线调试或学习大模型交互逻辑。

后续可参考 Ollama 官方文档(https://ollama.com/docs)开发 API 接口、自定义模型参数或进行微调。

http://www.dtcms.com/a/523598.html

相关文章:

  • 微信网站用什么语言开发wordpress4.9.4 安装
  • 如何在百度提交自己的网站简要列举网站常见类型
  • 机器视觉HALCON:5.图像标定
  • 【跟小嘉学习JavaWeb开发】第三章 从数据类型说起
  • CTF WEB入门 爆破篇
  • NAT网络地址转换
  • 【自然语言处理】预训练01:词嵌入(word2vec)
  • 利用inscode帮我用前端页面展示分析博客数据
  • 「赤兔」Chitu 框架深度解读(十):任务调度与并发控制策略
  • Java CompletableFuture 详解与实战:让异步编程更优雅
  • 建设外贸网站要多少钱建设局办的焊工证全国通用吗
  • Linux_基础IO(2)
  • Docker 中使用Nginx 一个端口启动多个前端项目
  • S9 顺序队列
  • 函数绑定器 std::bind
  • STM32基本定时器
  • 第9部分-性能优化、调试与并发设计模式
  • 编程素养提升之EffectivePython(Builder篇)
  • Vue 3 + TypeScript 项目性能优化全链路实战:从 2.1MB 到 130KB 的蜕变
  • 网站首页图腾讯 云上做网站教程
  • Ubuntu(Linux)安装更好用的中文输入法
  • 《算法闯关指南:优选算法--二分查找》--23.寻找旋转排序数组中的最小值,24.点名
  • 【ssh密钥】--- 当密钥密码遇见 Git 服务器:一场关于 “信任” 的浪漫喜剧
  • kotlin 数据类的get和set 问题
  • 爱站网功能左旗网站建设
  • 中国企业跨境云组网指南:低延迟访问德国AWS云做数据分析的实操方案
  • 从单机阅读到云端协作:KoodoReader+cpolar构建知识管理新范式
  • 设计模式之:命令模式
  • EulerOS(NPU)安装llamafactory
  • Ubuntu卸载snap