当前位置: 首页 > news >正文

【DeepSeek】Mac m1电脑部署DeepSeek

一、电脑配置

个人电脑配置
在这里插入图片描述

二、安装ollama

简介:Ollama 是一个强大的开源框架,是一个为本地运行大型语言模型而设计的工具,它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型。
在ollama官网,根据自己电脑的类型选择对应的下载安装程序,比如我这里选择 macos:
在这里插入图片描述
下载成功后,直接安装。
如何判断是否安装成功?
打开一个命令行终端,输入命令:ollama -v,显示版本信息,表示安装成功。
在这里插入图片描述

三、选择合适的模型

点击ollama–>models选项,可以查看支持运行的模型。
在这里插入图片描述
deepseek r1 有多种参数,通常我们macos 选择7b,8b参数即可,参数越大对显卡和内存要求越高,如果你是3090显卡,4090 显卡,可以选择32b,70b,参数越大,效果越好。当然磁盘占用也越大。

选择对应的蒸馏模型,按照下面的命令复制到ollama控制台

DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b

四、安装并运行

安装并运行对应的蒸馏模型,命令行执行:
ollama run deepseek-r1:8b

安装成功后,在控制台直接输入问题,即可得到回复:
在这里插入图片描述
命令行如何退出大模型对话?
输入:/bye

相关文章:

  • #渗透测试#批量漏洞挖掘#Fastjson 1.2.24 远程命令执行漏洞
  • EasyX安装及使用
  • FastDDS示例Windows下编译
  • Android程序自身重启程序的几种方法
  • 手写数字识别的神经网络 2层神经网络的类 代码详解
  • 2.18学习总结
  • Win10环境使用零讯ZeroNews内网穿透实现Deepseek对外服务
  • 解决 nodejs 设置cors 不生效问题
  • 从零开始构建一个小型字符级语言模型的详细教程(基于Transformer架构)之二模型架构设计
  • 修改mysql数据库远程访问
  • 【复现DeepSeek-R1之Open R1实战】系列5:SFT源码逐行深度解析
  • 计算机毕业设计Python商品推荐系统 商品比价系统 电商比价系统 商品可视化(代码+LW文档+PPT+讲解视频)
  • 实现动态翻转时钟效果的 HTML、CSS 和 JavaScript,附源码
  • 【koa】05-koa+mysql实现数据库集成:连接和增删改查
  • gcc和g++的区别以及明明函数有定义为何链接找不到
  • 7-1 打印沙漏
  • 【动态规划】落花人独立,微雨燕双飞 - 8. 01背包问题
  • Python在网络安全中的应用 python与网络安全
  • python环境的yolov11.rknn物体检测
  • 前端VUE+后端uwsgi 环境搭建
  • 奥园集团将召开债券持有人会议,拟调整“H20奥园2”本息兑付方案
  • 教育部、国家发改委联合启动实施教师教育能力提升工程
  • 5月12日至13日北京禁飞“低慢小”航空器
  • 金融监管局:已设立74支私募股权投资基金,支持投资科技创新企业
  • 李彦宏:技术迭代速度之快从业30年来未见过,要提升执行力战胜对手
  • 夜读丨母亲的手擀面