当前位置: 首页 > news >正文

本地部署DeepSeek R1大数据模型知识库

DeepSeek-V3 的综合能力

DeepSeek-V3 在推理速度上相较历史模型有了大幅提升。在目前大模型主流榜单中,DeepSeek-V3 在开源模型中位列榜首,与世界上最先进OpenAI 闭源模型不分伯仲。

1、下载Ollama运行大数据库

Ollama支持 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2,等其他数据模型的本地化部署

Ollama 官方版:【点击前往】

本文将以在windows环境下部署为例: 

Download Ollama on WindowsDownload Ollama for Windowshttps://ollama.com/download/windows

2、拉取DeepSeek R1 AI模型数据库

需要根据本地硬件配置和显卡显存大小来选择拉取的模型库大小。

安装命令——

#5B Qwen Deepseek R1
ollama run deepseek-r1:5b


#7B Qwen Deepseek R1
ollama run deepseek-r1:7b

#8B Qwen Deepseek R1
ollama run deepseek-r1:8b

#14B Qwen Deepseek R1
ollama run deepseek-r1:14b

#32B Qwen Deepseek R1
ollama run deepseek-r1:32b

#70B Qwen Deepseek R1
ollama run deepseek-r1:70b

#671B Qwen Deepseek R1
ollama run deepseek-r1:671b

有条件的小伙伴可以本地部署满血版Deepseek R1 671b原版大模型,它的最低硬件需求:

CPU: 32核心Intel Xeon或者AMD EPYC处理器

内存:512GB RAM

GPU: 4xNVDIA A100\80GB显存

硬盘:2TB Nvme SSD

网络:10Gbps带宽

而本地硬件有限,只能部署蒸馏版的Deepseek R1 8b模型。本人12G的显卡,以拉取8b模型:

查看拉取Deepseek大数据模型库状态:

3、部署本地AnythingLLM  UI环境

 AnythingLLM 下载——

 Github 开源版: 【点击下载】       官方版:【点击下载】

4、上传本地私有知识库

5、畅玩本地Deepseek R1 AI大模型知识库

相关文章:

  • 专题·大模型安全 | 大模型的安全挑战及应对建议
  • springboot3 RestClient、HTTP 客户端区别
  • C++蓝桥杯基础篇(八)
  • iOS 聊天 IM 消息收发管理工具
  • 淘宝关键字搜索接口爬虫测试实战指南
  • 【DuodooTEKr 】多度科技 以开源之力,驱动企业数字化转型
  • GreatSQL5.7 与 8.0 对 DATE 非法值处理方式不同
  • e2studio开发RA2E1(15)----配置RTC时钟及显示时间
  • STM32使用有源蜂鸣器
  • Lab16_ Blind SQL injection with out-of-band interaction
  • RabbitTemplate类介绍、应用场景和示例代码
  • 【腾讯云】存储桶API
  • 【探商宝】大数据企业销售线索平台:销售型公司的战略转型引擎
  • Linux流量分析工具
  • RV1126+FFMPEG多路码流监控项目
  • 蓝桥杯java-B组真题—动态规划
  • 9.2go接口
  • Docker创建自定义网桥并指定网段
  • yolov5代码详解--1.python代码脚本
  • 【Multipath】使用(FC)访问远程存储设备
  • 哪个网站的体验做的最好/搜狗搜索推广
  • 哪个网站可以做纸箱/郑州互联网公司排名
  • 陕西中交基础建设有限公司网站/长沙谷歌seo收费
  • 外贸独立建站哪里比较好/google search
  • 怎么进入官方网站查询/百度知道首页
  • 国外网站代做/策划营销