本地部署语言大模型deepseek完整步骤
一、下载开源框架ollam
1、ollama介绍:
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 以下是其主要特点和功能概述: 简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。 2. 轻量级与可扩展:作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。 3. API支持:提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。 4. 预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。
2、ollama下载网址:Ollama
下载匹配系统版本
进行本地安装,并在cmd中检查是否安装成功:弹出dos窗口→ollama help
二、下载deepseek语言大模型内核:
1、在ollama窗口输入deepseek
根据电脑配置下载,一般推荐14b
本地化下载deepseek,复制下载码到dos窗口,进行下载
模型下载指令要复制留下来,方便下一次使用:ollama run deepseek-r1:14b
2、说明:如果失败,下载8B的
整体下载速度比较慢,2小时
三、安装词嵌入模型
四、进行ollama的配置
四、本地部署的删除
1、进行部署语言模型到的查询:ollama list
2、进行多余语言模型的删除:ollama rm deepseek-r1:1.5b