当前位置: 首页 > news >正文

Windows10上部署DeepSeek+RAG知识库操作详解(Dify方式)之2

上一篇我们通过docker拉取了dify并启动与它相关的服务,本篇主要介绍两个知识点:

一是配置模型,使用之前通过Xinference搭建的本地deepseek模型;

二是在dify上创建应用。

一、配置模型

1.进入设置页面

2.添加xinference模型

上图的其它参数都好理解和确认,模型UID可以到xinference图形界面查询,也可以在浏览器输入下面网址http://192.168.1.19:9997/v1/models (ip地址根据自己的情况改写),看返回结果中的id信息。

3.验证是否添加成功

出现下图红框的提示就代表添加成功了。

二、创建应用

1.创建空白应用

2.填写参数

3.配置大模型

这里红框的地方就是选择自建知识库,以便在大模型基础上叠加自己的知识库进行回答,这里暂且空缺,在下一篇讲完自建知识库后再添加。

4.应用测试

对于使用deepseek搭建公司自己的知识库来说,到这个环节都还是非常简单,容易操作,真正有点难度的是如何把企业的各类文档标准化、向量化分割后,形成大模型所需的信息格式并把它与大模型融合起来。后续篇章继续介绍。

相关文章:

  • smartdns 在企业场景中的应用心得
  • Parallel_Scheduling_of_DAGs_under_Memory_Constraints论文阅读
  • DPO vs PPO
  • 微服务架构:构建可持续演进的微服务架构的原则与实践指南
  • 计算机求职面试中高频出现的经典题目分类整理
  • Linux驱动开发 块设备
  • ESXI 安装及封装第三方驱动和在ESXI系统下安装驱动
  • VulkanSceneGraph (VSG) 开发入门
  • fastboot
  • 理解llama.cpp如何进行LLM推理
  • 2023年3月全国计算机等级考试真题(二级C语言)
  • 逆向--ARM64汇编
  • openEuler24.03 LTS下安装ZooKeeper集群
  • 【个人笔记】用户注册登录思路及实现 springboot+mybatis+redis
  • vercel开源平替,dokploy简简单单了解国内安装指南
  • 将树莓派5当做Ollama服务器,C#调用generate的API的示例
  • openEuler24.03 LTS下安装Kafka集群
  • 什么是ModelDTO
  • 爱因斯坦求和 torch
  • 【图解Agent】A Visual Guide to LLM Agents