deepseek 私有化部署
deepseek 私有化部署
文章目录
- deepseek 私有化部署
- 1、deepseek各版本简介
- 2、Mac 私有化部署 deepseek
- 2.1 系统资源
- 2.2 借助 Ollama 部署 deepseek
- 2.2.1 下载Ollama
- 2.2.2 完成安装
- 2.2.3 下载 DeepSeek 镜像
- 2.2.4 检测deepseek是否正常运行
- 2.3 安装可视化插件(Chatbox AI)
- 2.3.1 下载Chatbox AI
- 2.3.2 初始化配置
- 2.3.3 测试下效果
1、deepseek各版本简介
deepseek版本 | 特点 |
---|---|
deepseek-r1:1.5b | 轻量级模型,推理速度快,内存占用低 |
deepseek-r1:7b | 支持量化压缩(4bit量化后显存占用<8GB),平衡推理速度与语义理解 |
deepseek-r1:8b | 为7B的优化版本,通过架构调整提升推理效率 |
deepseek-r1:14b | 支持长上下文理解(8K tokens),代码生成准确率显著提升 |
deepseek-r1:32b | 多模态扩展能力,支持图像-文本联合推理 |
deepseek-r1:70b | 复杂逻辑推理能力(数学证明准确率>82%),支持16K超长上下文 |
2、Mac 私有化部署 deepseek
2.1 系统资源
系统 | CPU | 内存 | 显卡 | deepseek版本 |
---|---|---|---|---|
Mac | 8G | 8G | AMD Radeon Pro 5300M 4 GB | deepseek-r1:1.5b |
2.2 借助 Ollama 部署 deepseek
简介:Ollama 是一个开源的、易于使用的本地大语言模型运行工具,在本地部署大模型过程中发挥着关键作用
2.2.1 下载Ollama
打开Ollama 官网下载对应版本的Ollama (Windows&Linux系统同理)
2.2.2 完成安装
将下载得到的.dmg 文件打开,按照指引将 Ollama 图标拖移至 “Applications” 文件夹完成安装
2.2.3 下载 DeepSeek 镜像
# 在终端中输入不同命令,可下载对应版本的 DeepSeek 模型(启动模型的命令也是这个)
ywb@ywbMacBook-Pro ~ % ollama run deepseek-r1:1.5b
# 检查镜像是否下载成功
ywb@ywbMacBook-Pro ~ % ollama list
NAME ID SIZE MODIFIED
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 30 hours ago
2.2.4 检测deepseek是否正常运行
ywb@ywbMacBook-Pro ~ % ollama run deepseek-r1:1.5b
>>> 写一首关于春天的诗词
<think>
嗯,用户让我写一首关于春天的诗词。首先,我得考虑用户的背景和需求。可能是一个学生、诗歌爱好者,或者对春
天感兴趣的人。他们想要的是诗意的表达,所以需要既有画面感又不失文字的美。
接下来,我需要确定诗的主题是春天,这包括天气转暖、花开、鸟鸣等元素。然后,考虑用哪些意象来表现春天的美
景。比如,柳树轻摇、绿草如茵、繁花似锦这些都可以用来描绘春天的氛围。
结构方面,我想分成几部分,每部分描述不同的方面:开头引入春天的生机勃勃,中间描写自然景观和生活元素,结
尾呼应开头,表达对春天的美好祝福。这样既完整又有层次感。
然后,我得想想具体的句子如何组织,避免过于直白,多用比喻和拟人手法,让诗句更生动。比如“柳丝轻摇,绿肥
颜”这样的句式,既有画面又有情感。
还要注意押韵和节奏,让整首诗流畅自然。可能需要多次修改来调整词语和句式的平衡。最后,确保每句都能准确传
达春天的美好,同时表达出对春天祝福的期望。
总的来说,我需要写一首结构清晰、意象鲜明、语言优美、情感真挚的春天诗词,满足用户的需求。
</think>
## 《春日里》
柳丝轻摇,绿肥颜
燕儿盈巢,莺语满园
风儿轻拂面庞,花香扑鼻间
万物复苏,千家欢歌正上扬
山间的云雾轻纱,
画廊间,水墨画铺开。
青砖灰瓦映水边,
一缕春光泛彩霞。
花开繁盛,鸟语轻盈,
谁是春日的化身?
愿君在画中,舞动人生。
>>>
2.3 安装可视化插件(Chatbox AI)
2.3.1 下载Chatbox AI
到 Chatbox AI 官网下载相应的版本
这里可以选择使用网页版或者直接下载到本地
2.3.2 初始化配置
第一次启动 Chatbox 需要按照提示做一些初始化配置,点击 开始设置
- 模型提供方要选择
ollama
,如果你是其他方式安装的选择对应的模型即可。- 然后就是配置默认的 API 域名,输入 http://localhost:11434
- 模型,选择
deepseek-r1:1.5b
,根据自己实际下载的版本模型(API 域名设置正确后,模型下拉列表会显示所有可用的模型)- 严谨与想象(Temperature)使用默认值
显示配置
最后记得点击保存