当前位置: 首页 > news >正文

M4 Mac mini运行DeepSeek-R1模型

前言

最近DeepSeek大模型很火,实际工作中也有使用,很多人觉得需要很好的显卡才能跑起来,至少显存需要很高,但实际上一般的核显机器也能跑起来,只不过内存要求要大,对于个人而言,实际上Mac M芯片的内存也行,就是有点贵(戏称黄金内存)😅,实际上AMD也有专门供给AI的APU AI Max系列(增大内存带宽和通道)或者NVIDIA的定制机,当然真实生产力另说。

实际体验

还是使用Ollama启动器:M2 Mac mini跑Llama3_在m2上运行llama3-8b-CSDN博客

这一块就不说了,说点真实体验

执行模型拉取,笔者使用M4 macmini 丐版可以运行14b模型,运行流畅

ollama run deepseek-r1:14b

大约9G左右

内存并没怎么占用,经测试使用Intel 12400 Ubuntu核显都能跑,但是速度要比macmini慢一些,建议如果是核显机器跑7b或者8b模型,毕竟是运行模型并不是训练模型并不怎么耗显存。

预测:8G的电脑可以跑7b或者8b的模型,占用应该在6G左右

16G的电脑跑14b模型,占用在9G左右

32G电脑可以跑32b模型,占用估计24G左右

UI

笔者以前基本上不使用UI,直接就是命令行,其实也没事,不过图形化还是可以增加使用效率,这里就用一个免费的软件ChatBox为例,当然也可以使用docker运行各种UI,也是免费的,我这里为了不允许docker,就用了桌面端软件。

简单设置一下就可以用了

我这里使用的Ollama,如果使用其他启动器,相对应即可,这个UI已经默认选择就配置好了API接口(启动器官网有相关说明)。

然后选择

其他的也可以自己设置,随便问一个问题

相对于Llama3,中文不会水土不服

使用体验而言,14b已经很不错了,当然模型越大越好,但是越大的模型就越需要显存。

总结

仅仅是分享体验感受,实际上体验本地的AI模型的门槛是很低的,一般的Intel 核显就行,也需要一定的显存,不过不是特别消耗,如果实在不足那么也可以降低模型的大小,当然蒸馏模型越小失真就越严重,物理定律是不能违背的。另外也可以配置一个UI界面,如果是生产环境就建议部署docker应用,自己本地体验实际上用免费的桌面软件就好了。

相关文章:

  • Linux——计算机网络
  • SGLang部署大模型
  • 【系统稳定性】1.10 QNX Crash之Ramdump的分析(二)
  • 计算结构体的大小(结构体内存对齐)、结构体实现位段
  • 《MODEM HOST INTERFACE》,第二章:MHI接口架构
  • C++蓝桥杯基础篇(六)
  • 解锁 indexOf、substring 和 JSON.stringify:从小程序图片上传看字符串魔法 ✨
  • Flutter_学习记录_本地存储数据
  • 数据集笔记:新加坡traffic 照片
  • 虚拟化园区网络部署指南
  • 第十三届蓝桥杯大赛软件赛决赛C/C++ 大学 B 组
  • Linux下的网络通信编程
  • 2024年12月中国电子学会青少年软件编程(Python)等级考试试卷(四级)真题 + 答案
  • 手撸大模型-基础篇 简单线性回归模型预测房价
  • 一周一个Unity小游戏2D反弹球游戏 - 球板的发球
  • 【03】STM32F407 HAL 库框架设计学习
  • 介绍微信小程序中页面的生命周期函数和组件的生命周期函数
  • Python:列表的定义和增删改查,推导式与嵌套
  • 蓝桥杯单片机第16届4T模拟赛三思路讲解
  • 计算机毕业设计SpringBoot+Vue.js汽车资讯网站(源码+文档+PPT+讲解)
  • 无锡网站建设哪家专业/seo整站优化报价
  • 南昌手机网站制作/百度网站提交了多久收录
  • 淄博政府做网站哪家好/竞价网络推广
  • 做咩有D网站响网吧上不了/杭州市优化服务
  • seo做的不好的网站有哪些/公司全网推广
  • 2021手机能看的网站/深圳百度seo优化