Ollama+Deepseek+chatbox快速部署属于自己的大模型
在科技的浪潮中,总有那么一些瞬间,让人目不暇接、心跳加速。就像最近,DeepSeek这个名字如同一颗璀璨的新星,一夜之间在互联网的夜空中划出了耀眼的轨迹,瞬间点燃了无数人的好奇心。从技术极客到普通大众,从行业专家到初入职场的新人,大家都在热烈地讨论着这个神秘的名字。DeepSeek背后的强大语言模型,更是像隐藏在幕后的魔法师,用它那近乎神奇的力量,让文字、信息和知识的交互变得前所未有的便捷与智能。而如今,这股神秘的力量不再遥不可及,它即将走进我们的本地设备,成为我们触手可及的助手。今天,就让我们一起踏上这场奇妙的探索之旅,手把手教你如何在本地部署DeepSeek,解锁它背后无限的可能,让你也能成为驾驭这股强大科技力量的先行者。
第一步下载Ollama
Ollama官网
认准小羊驼标志!
根据自己的电脑系统选择对应的版本下载,我在这使用大家使用最多的WINDOS系统进行操作
第二步下载deepseek模型
下载完进行安装,安装完成后打开命令行(cmd),在下面的网址中选择适合的deepseek模型进行下载
deepseek-r1模型
DeepSeek-R1-1.5B 非必需(纯CPU推理),若有GPU加速则需4GB+显存(如GTX 1650) 低资源设备部署(树莓派、旧款笔记本、嵌入式系统)
DeepSeek-R1-7B 推荐8GB+显存(如RTX 3070/4060) 中等复杂度NLP任务(文本摘要、翻译、轻量级多轮对话系统)
DeepSeek-R1-8B 推荐8GB+显存(如RTX 3070/4060),需求略高于7B版本10-20% 需更高精度的轻量级任务(代码生成、逻辑推理)
DeepSeek-R1-14B 16GB+显存(如RTX 4090或A5000) 企业级复杂任务(合同分析、报告生成)、长文本理解与生成(书籍/论文辅助写作)
DeepSeek-R1-32B 24GB+显存(如A100 40GB或双卡RTX 3090) 高精度专业领域任务(医疗/法律咨询)、多模态任务预处理
DeepSeek-R1-70B 多卡并行(如2x A100 80GB或4x RTX 4090) 科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务(创意写作、算法设计)
DeepSeek-R1-671B 多节点分布式训练(如8x A100/H100) 国家级/超大规模AI研究(气候建模、基因组分析)、通用人工智能(AGI)探索
等待下载完成即可
下载完成后输入 ollama run deepseek-r1:xb运行,我这是8b的代码是ollama run deepseek-r1:8b
第三步安装可视化界面
chetbox官网
进入官网可以下载本地客户端也可以使用网页端
客户端与网页端配置相同,我在此使用网页端进行展示
配置完成后即可使用了!