当前位置: 首页 > news >正文

Solon AI —— RAG

说明

当前大模型与外部打交道的方式有两种,一种是 Prompt,一种是 Fuction Call。在 Prompt 方面,应用系统可以通过 Prompt 模版和补充上下文的方式,调整用户输入的提示语,使得大模型生成的回答更加准确。

RAG

RAG (Retrieval-Augmented Generation 检索增强生成)是一种结合了信息检索和大模型生成的技术框架,是通过相似度等算法从外部知识库中检索相关的信息,并将其作为 Prompt 输入大模型,以增强大模型处理知识密集型任务的能力。

系统是传统 RAG 和 智能体 RAG 的一个架构图(图片来源网络)。

在这里插入图片描述

知识库

FastGPT 的《知识库基础原理的介绍》说明挺好的,https://doc.fastgpt.cn/docs/guide/knowledge_base/rag/ 。

相对于大模型,我们的系统称为应用。对于应用来说,主要做的是检索工作,就是从知识库(提供文档索检服务的对象)中找到相应的知识(文档)。

为了存储和读取文档,需要用到文档加载器和文档分割器。

  • 文档加载器,比如,纯文本,PDF,Word, Markdown, html, excel 等格式的处理与加载。
  • 文档分割器,当文档太大时,可以按文档的字数,段落,章节,主题等来分块。因此也就有了 JSON 格式拆分,正则表达式拆分,大小分割,拆分流水线等等。

为了查询相关文档,就需要检索算法的加持。主要分为向量检索和传统检索。在实际的应用是可以多种方式结合的,只要能检索到尽可能相关的数据即可。

  • 向量检索:如 BERT向量等,它通过将文档和查询转化为向量空间中的表示,并使用相似度计算来进行匹配。向量检索的优势在于能够更好地捕捉语义相似性,而不仅仅是依赖于词汇匹配。
  • 传统检索:如BM25,主要基于词频和逆文档频率(TF-IDF)的加权搜索模型来对文档进行排序和检索。BM25适用于处理较为简单的匹配任务,尤其是当查询和文档中的关键词有直接匹配时。

示例

这里我们继续使用 demo-ai02 中诊断的例子,尝试模拟一次简单的诊断,相对于demo-ai02,增加了获取病人的历史病人和病人自述相关的知识,用于演示知识库增加的例子。注意这里只是示例,并非真正的诊断流程。

依赖

build.gradle
dependencies {
    implementation platform(project(":demo-parent"))

    implementation("org.noear:solon-web")
    implementation("org.noear:solon-view-enjoy")
    implementation("org.noear:solon-ai")
    implementation("org.noear:solon-ai-repo-redis")
    implementation("org.noear:solon-logging-logback")
    implementation("org.noear:solon-openapi2-knife4j")
    implementation("org.noear:solon-web-rx")
    implementation("org.noear:solon-web-sse")
    implementation("org.noear:solon-flow")
    implementation("org.dromara.hutool:hutool-all")


    testImplementation("org.noear:solon-test")
}
Redis

这里需要用的redis的向量查询,需要安装 redis-stack 版本。

docker run -d --name redis-stack -p 6379:6379 -p 8001:8001 swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/redis/redis-stack:latest
模型

这里需要向量化,需要增加嵌入模型,这些选了nomic-embed-text,自己根据实际情况选项,deepseek-r1:32b,也是一样的,根据需要调整。

ollama run deepseek-r1:32b
ollama run qwen2.5:7b
ollama run nomic-embed-text

配置

app.yml

增加嵌入模型和 reids 知识库的配置,其他的模型配置在流程编排中获取。

solon.flow:
  - "classpath:flow/*"

demo.llm:
  embed:
    apiUrl: "http://127.0.0.1:11434/api/embed" # 使用完整地址(而不是 api_base)
    provider: "ollama" # 使用 ollama 服务时,需要配置 provider
    model: "nomic-embed-text"
  repo:
    redis:
      server: "127.0.0.1:16379"  # 改为你的 Redis  地址
      db: 0
      maxTotal: 200
LlmConfig
package com.example.demo.ai.llm.config;

import org.noear.redisx.RedisClient;
import org.noear.solon.ai.embedding.EmbeddingConfig;
import org.noear.solon.ai.embedding.EmbeddingModel;
import org.noear.solon.ai.rag.repository.RedisRepository;
import org.noear.solon.annotation.Bean;
import org.noear.solon.annotation.Configuration;
import org.noear.solon.annotation.Inject;

/**
 * @author airhead
 */
@Configuration
public class LlmConfig {
  @Bean
  public EmbeddingModel embeddingModel(@Inject("${demo.llm.embed}") EmbeddingConfig config) {
    return EmbeddingModel.of(config).build();
  }

  @Bean
  public RedisRepository repository(
      EmbeddingModel embeddingModel, @Inject("${solon.llm.repo.redis}") RedisClient client) {
    return new RedisRepository(embeddingModel, client.openSession().jedis());
  }
}
流程
id: "ai-flow-01"
layout:
  - id: "开始"
    type: "start"
  - id: "病史"
    type: "execute"
    task: "@searchTask"
  - id: "诊断"
    type: "execute"
    meta.model: "deepseek-r1:32b"
    meta.apiUrl: "http://127.0.0.1:11434/api/chat"
    meta.provider: "ollama"
    meta.input: "prompt"
    meta.output: "intention"
    meta.systemTpl: "## 上下文\n\n#(ctx)\n\n## 任务\n\n根据用户的描述,判断用户最可能的三个健康问题,只要诊断名称,不需要其他解释,用 Markdown 的列表格式返回。\n\n"
    meta.userTpl: "## 病人自述\n\n#(prompt)\n\n## 历史病情\n\n#(history)\n\n"
    task: "@intentionTask"
  - id: "治疗建议"
    type: "execute"
    meta.model: "qwen2.5:7b"
    meta.apiUrl: "http://127.0.0.1:11434/api/chat"
    meta.provider: "ollama"
    meta.input: "intention"
    meta.output: "suggestion"
    meta.system: "## 角色\n\n你是一个经验丰富的医生\n\n## 任务\n根据用户提供的诊断信息,提供治疗建议"
    task: "@suggestionTask"
  - type: "end"

知识库管理

RepositoryController
package com.example.demo.ai.llm.controller;

import com.example.demo.ai.llm.service.RepositoryService;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import java.util.List;
import org.noear.solon.annotation.*;

/**
 * @author airhead
 */
@Controller
@Mapping("/repository")
@Api("知识库")
public class RepositoryController {
  @Inject private RepositoryService service;

  @ApiOperation("addDoc")
  @Post
  @Mapping("addDoc")
  public Boolean addDoc(String content) {
    return service.addDoc(content);
  }

  @ApiOperation("search")
  @Post
  @Mapping("search")
  public List<String> search(String query) {
    return service.search(query);
  }
}
RepositoryService
package com.example.demo.ai.llm.service;

import java.io.IOException;
import java.util.Collections;
import java.util.List;
import org.noear.solon.ai.rag.Document;
import org.noear.solon.ai.rag.repository.RedisRepository;
import org.noear.solon.annotation.Component;
import org.noear.solon.annotation.Inject;

/**
 * @author airhead
 */
@Component
public class RepositoryService {
  @Inject RedisRepository repository;

  public Boolean addDoc(String content) {
    try {
      Document document = new Document(content);
      repository.insert(Collections.singletonList(document));
      return true;
    } catch (IOException e) {
      throw new RuntimeException(e);
    }
  }

  public List<String> search(String query) {
    try {
      List<Document> list = repository.search(query);
      return list.stream().map(Document::getContent).toList();
    } catch (IOException e) {
      throw new RuntimeException(e);
    }
  }

  public String history() {
    return "无其他慢性病";
  }
}

诊断

LlmDiagController
package com.example.demo.ai.llm.controller;

import com.example.demo.ai.llm.service.LlmService;
import com.jfinal.kit.Kv;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import org.noear.solon.annotation.*;

/**
 * @author airhead
 */
@Controller
@Mapping("/llm")
@Api("聊天")
public class LlmDiagController {
  @Inject private LlmService service;

  @ApiOperation("diag")
  @Post
  @Mapping("diag")
  public Kv diag(String prompt) {
    return service.diag(prompt);
  }
}
LlmDiagService
package com.example.demo.ai.llm.service;

import com.jfinal.kit.Kv;
import org.noear.solon.annotation.Component;
import org.noear.solon.annotation.Inject;
import org.noear.solon.flow.ChainContext;
import org.noear.solon.flow.FlowEngine;

/**
 * @author airhead
 */
@Component
public class LlmDiagService {
  @Inject private FlowEngine flowEngine;

  public Kv diag(String prompt) {
    try {
      ChainContext chainContext = new ChainContext();
      chainContext.put("prompt", prompt);
      Kv kv = Kv.create();
      chainContext.put("result", kv);
      flowEngine.eval("ai-flow-01", chainContext);

      return kv;
    } catch (Throwable e) {
      throw new RuntimeException(e);
    }
  }
}

验证

知识管理

通过接口写入一些文档,这里是一些睡眠的方法。

在这里插入图片描述

知识查询

通过查询睡眠

在这里插入图片描述

诊断服务

在这里插入图片描述

中间的调试信息,我们可以看到我们添加的知识库的信息被追加到提示信息中,提交给大模型。

在这里插入图片描述

小结

示例中没有对文档的拆分和文档不同文档类型的加载,但我们可以看到 Solon-ai 结合 solon-flow 已经能完整的支持 RAG 的知识库的开发了。当然如果要做一个完整的知识库系统还需要很多工作要做。

相关文章:

  • 推流项目的ffmpeg配置和流程重点总结一下
  • 【Elasticsearch】Elasticsearch 中使用 HDFS 存储快照
  • 从vue源码解析Vue.set()和this.$set()
  • Checkpoint 模型与Stable Diffusion XL(SDXL)模型的区别
  • SpringBoot 异常处理
  • 【四.RAG技术与应用】【12.阿里云百炼应用(下):RAG的云端优化与扩展】
  • 靶场之路-VulnHub-DC-6 nmap提权、kali爆破、shell反连
  • 【MySQL】MySQL 复制
  • Git 批量合并 Commit 并且保留之前的 Commit 快速实现的思路
  • 【Jenkins】Pipeline流水线语法解析全集 -- 脚本式流水线、groovy语法
  • 数字后端培训实战项目六大典型后端实现案例
  • DeepSeek:构筑大数据平台底座的最优解
  • Unity3D 刚体动力学(Rigidbody Dynamics)详解
  • LIUNX学习-线程
  • 【3DMAX室内设计】2D转3D平面图插件2Dto3D使用方法
  • TomcatServlet
  • MyBatis-Plus 自定义 SQL 和复杂查询
  • 迭代器模式:遍历集合的艺术
  • flink集成tidb cdc
  • Redis - 解读三种方案实现Redis跨机房数据同步
  • 男男做暧网站免费/搭建网站多少钱
  • 网站快速有排名/域名注册
  • 如何购买建设网站系统/网站排名掉了怎么恢复
  • 专业做高端网站/免费制作网站平台
  • 如何在网站做404页面/网络推广员
  • 阳江网红酒店/广东seo推广费用