当前位置: 首页 > news >正文

公司内网部署离线deepseek本地模型实战

企业内部可能有些数据比较敏感,不能连接互联网。deepseek来提高工作效率,这个时候你可以利用ollama在内网本地部署来实现。

本式样是先在自己电脑上用虚拟机部署好,再用U盘把虚拟机文件复制到内网去。

一、使用VMware新建WIN2022虚拟机

(本步骤省略)

二、使用ollama部署本地LLM模型

  1. 下载ollama
    官网https://ollama.com/下载自已电脑对应的ollama 版本。

在这里插入图片描述
在这里插入图片描述
下载太慢的请看这里,我用移动的宽带下特别快
两个文件下到同一目录,用360解压缩
https://download.csdn.net/download/xzzteach/90571904
https://download.csdn.net/download/xzzteach/90571885

  1. 安装ollama

注意:
Ollama安装包默认只能安装到C盘,Ollama本身大概会占用4GB左右;
如果大家都C盘空间充足的话可以直接双击打开安装包点击安装即可;
建议将Ollama安装包放到想要安装的路径下,本实验安装在 D:\Ollama

  1. 在安装文件目录中进入CMD

在这里插入图片描述
2. 输入安装指令

OllamaSetup.exe /DIR=D:\Ollama

在这里插入图片描述
在这里插入图片描述

  1. 本地部署DeepSeek
    选择模型并下载
    打开Ollama官网,点击顶部的Models链接,此时我们就会看到deepseek-r1模型排在第一位,如下图所示:

在这里插入图片描述

这里以14B模型为例(推荐使用移动宽带这样下载快一些)

ollama run deepseek-r1:14b

在这里插入图片描述

在这里插入图片描述
4. 搭建个人知识库
输入指令

ollama pull shaw/dmeta-embedding-zh

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

  1. 安装python3.11
    https://download.csdn.net/download/xzzteach/90572963
  2. 安装Open WebUI
pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/
  1. 启动Open WebUI
open-webui serve

相关文章:

  • 快 速 幂
  • MySQL请求处理全流程深度解析:从SQL语句到数据返回
  • 队列(C/C++)
  • 25/4/6 算法笔记<仿真O2DES>基础知识学习
  • CasaOS小主机本地安装1Panel运维面板结合内网穿透移动端远程运维
  • 【网络安全】大学信息安全技术 期末考试复习题
  • 力扣热题100——动态规划(上)
  • B站视频教材: Yocto项目实战教程 第一章 PPT讲解
  • 【dify应用】将新榜排行数据免费保存到飞书表格
  • Android Transition转场动效使用全解析
  • 精心整理的 22道 Kafka 高频面试题(含答案),你都会了吗?
  • [leetcode] 面试经典 150 题——篇9:二叉树(番外:二叉树的遍历方式)
  • AI Agent开发大全第二十一课-如何开发一个MCP(从0开发一个MCP Client)
  • Kafka 的发展历程
  • React学习-css
  • 【IDEA】✈️自定义模板,自动生成类和方法注释
  • 差分音频转单端音频单电源方案
  • 小菜Go:Ubuntu下Go语言开发环境搭建
  • 工控机和笔记本互传(①笔记本充当工控机的显示器、②笔记本控制工控机)
  • TypeScript 中interface和type的区别?
  • 网站设计论文3000字/网络营销怎么做?
  • 做行业门户网站注意什么/老王搜索引擎入口
  • wordpress建手机网站/全球疫情最新数据消息
  • iis 里没有网站吗/网络广告营销的典型案例
  • 新零售网站建设/外贸网站优化推广
  • 建设银行个人登录网站/海豹直播nba