当前位置: 首页 > news >正文

公司内网部署离线deepseek+docker+ragflow本地模型实战

企业内部可能有些数据比较敏感,不能连接互联网。本次实验操作是将deepseek完全离线后迁移至内网使用,实验基于Windows server 2022 datacenter系统安装deepseek、docker、ragflow。

目录

    • 使用VMware新建WIN2022虚拟机
    • 一、安装DeepSeek模型
    • 二.安装Docker
    • 二、将C盘知识库存入D盘

使用VMware新建WIN2022虚拟机

(本步骤省略)

一、安装DeepSeek模型

  1. 下载ollama
    官网https://ollama.com/下载自已电脑对应的ollama 版本。
    在这里插入图片描述

在这里插入图片描述
下载太慢的请看这里,我用移动的宽带下特别快
两个文件下到同一目录,用360解压缩
https://download.csdn.net/download/xzzteach/90571904
https://download.csdn.net/download/xzzteach/90571885

  1. 安装ollama

注意:
Ollama安装包默认只能安装到C盘,Ollama本身大概会占用4GB左右;
如果大家都C盘空间充足的话可以直接双击打开安装包点击安装即可;
建议将Ollama安装包放到想要安装的路径下,本实验安装在 D:\ds\ollama

在安装文件目录中进入CMD

在这里插入图片描述
输入安装指令

OllamaSetup.exe /DIR=D:\ds\ollama

在这里插入图片描述
点击install进行安装
在这里插入图片描述
检查安装成功的版本号

ollama -v

在这里插入图片描述

  1. 本地离线部署DeepSeek
    选择模型并下载
    打开Ollama官网,点击顶部的Models链接,选择deepseek-r1模型,如下图所示:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这里以14B模型为例(推荐使用移动宽带这样下载快一些)

ollama run deepseek-r1:14b

在这里插入图片描述
出现success就代表成功了,并且可以进行对话.
在这里插入图片描述

二.安装Docker

安装前先打开启用或关闭Windows功能界面 ,随后打开红框中的内容,如果第一个红框没有的话那么看看有没有一个叫做虚拟机平台 的进行打开

开始菜单搜索“控制面板”
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
执行

dism /online /enable-feature /all /featurename:Microsoft-Hyper-V

在这里插入图片描述
提示重启,输入Y重启服务器

下载docker
https://www.docker.com/

在这里插入图片描述

因为笔者服务器系统Windows server 2022 C盘空间特别小,这里把Docker安装到D盘
先创建两个文件夹

mkdir D:\ds\DockerDesktop
mkdir D:\ds\DockerDesktop\data

查看目录已成功创建
在这里插入图片描述

现在开始安装

start /w "" "Docker Desktop Installer.exe" install -accept-license --installation-dir="D:\ds\DockerDesktop" --wsl-default-data-root="D:\ds\DockerDesktop\data" --windows-containers-default-data-root="D:\\ds\\DockerDesktop"

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

wsl --update

在这里插入图片描述

下载ragflow
https://github.com/infiniflow/ragflow
在这里插入图片描述
原来是这样的
在这里插入图片描述
修改成如下所示:也就是标红部分未注释的注释掉,已注释的取消(这样才能带Embedding模型)
在这里插入图片描述
docker端口与本地对应关系根据自己的情况修改,我这里保持了默认:
在这里插入图片描述
来到ragflow的docker目录执行命令如下:

docker compose -f docker-compose.yml up -d
  1. 搭建个人知识库
    输入指令
ollama pull shaw/dmeta-embedding-zh

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

  1. 安装python3.11
    https://download.csdn.net/download/xzzteach/90572963
  2. 安装Open WebUI
pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/
  1. 启动Open WebUI
open-webui serve

启动后,你可以通过访问 http://localhost:8080 来访问 Open WebUI 的 Web 界面,如果需要其他电脑访问,将以上localhost改为服务器IP地址。

首次访问 Open WebUI 时,你将会看到一个登录界面。在这个界面上,你需要创建一个管理员账号。输入必要的信息后,你将能够访问管理员面板,进行模型管理和 API 配置。

在这里插入图片描述
在管理员面板中,你需要配置 Ollama 的 API。点击相应的设置选项,输入你安装 Ollama 时生成的 API 地址和密钥。确保配置正确,这样 Open WebUI 才能成功连接到 Ollama 并调用 Deepseek-R1-14b 模型进行推理。
在这里插入图片描述

二、将C盘知识库存入D盘

在这里插入图片描述
在这里插入图片描述
C:\Users\Administrator\AppData\Roaming\CherryStudio链接至D:\CherryStudio

将C:\Users\Administrator\AppData\Roaming\CherryStudio整个目录剪切至D盘

输入如下命令

mklink /D "C:\Users\Administrator\AppData\Roaming\CherryStudio" "D:\CherryStudio"

在这里插入图片描述

http://www.dtcms.com/a/356312.html

相关文章:

  • Day15 Logurs框架学习
  • Elasticsearch核心配置与性能优化
  • Linux 线程调度核心要点
  • 期权合约作废了怎么处理?
  • AI共链·智存未来 | 绿算技术受邀出席华为AI SSD发布会
  • 若依微服务一键部署(RuoYi-Cloud):Nacos/Redis/MySQL + Gateway + Robot 接入(踩坑与修复全记录)
  • 吱吱企业通讯软件可私有化部署,构建安全可控的通讯办公平台
  • C++异常处理指南:构建健壮程序的错误处理机制
  • 2025年渗透测试面试题总结-39(题目+回答)
  • FDTD_mie散射_仿真学习(2)
  • AWS集成开发最佳实践:构建高效可靠的云管理平台
  • 海运业务怎么管?解析海运货代系统的核心功能模块
  • Blender建模软件基本操作--学习笔记1
  • CSS text-decoration-thickness:精细控制文本装饰线粗细的新属性
  • Git 9 ,.git/index.lock 文件冲突问题( .git/index.lock‘: File exists. )
  • 亚马逊巴西战略升级:物流网络重构背后的生态革新与技术赋能之路
  • 基于SpringBoot的足球青训俱乐部管理系统
  • 【数组特殊排序最小最大次小次大依次类推规律放置】2022-10-27
  • 香港电讯为知名投资公司搭建高效、安全IT管理服务体系
  • Java学习day_13之API(常用API对象克隆)
  • 高效接入:Suno API 与主流编程语言的结合
  • 从“安全诉讼”说起:奖励模型(Reward Model)是LLM对齐的总阀门(全视角分析)
  • 龙迅#LT7641GX适用于四路HDMI2.1/DP/TPYE-C转HDMI2.1混切应用,分辨率高达8K60HZ!
  • 【谷歌浏览器】浏览器实用自用版——谷歌浏览器(Google Chrome)离线纯净版安装 官方版无任何捆绑及广告 【离线安装谷歌浏览器】
  • 智能体开发:学习与实验 ReAct
  • AI Agent实战:提升大模型应用能力——提示链、响应净化与结构化输出技术详解
  • C# WinForms 使用 CyUSB.dll 访问 USB 设备
  • 当不想安装telnet或nc时,可使用 Linux 系统默认自带的bash原生网络功能或ping(辅助判断)测试连通性
  • Pytest 插件:pytest_runtest_protocol
  • Dify 1.8.0 全网首发,预告发布