当前位置: 首页 > news >正文

Spring+LangChain4j小智医疗项目

这里写目录标题

  • LangChain4j入门
  • 配置
  • 测试
  • Ollama
  • 阿里云百炼平台
  • AIService
  • 聊天记忆
    • 隔离聊天
  • MongoDB
  • 持久化存储
  • Prompt
  • *创建小智医疗助手
  • Function Calling(Tools)
    • 实战小智医疗智能体
  • RAG
  • Token分词器
  • 向量存储
  • 流式输出
  • 总结

LangChain4j入门

LangChain4j 是一个用于构建基于大型语言模型(LLM)应用的 Java 框架,它简化了与 OpenAI、Hugging Face 等 LLM 服务的集成,并提供了工具链来构建复杂的 LLM 应用。

配置

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-open-ai-spring-boot-starter</artifactId><version>1.0.0-beta3</version>
</dependency>

在yml配置api_key,base_ur,model_name必需项
一般将APIKEY保存在系统环境变量中,用System.getenv()获取

测试

	@Autowiredprivate OpenAiChatModel openAiChatModel;@Testpublic void testChat() {String question = "java的特性";String ans = openAiChatModel.chat(question);System.out.println(ans);}

Ollama

Ollama是一个允许开发者在本地计算环境中运行模型的工具。

  1. 选择模型:
    在这里插入图片描述
  2. 输入命令行 ollama run deepseek-r1:1.5b
  3. 本地项目配置
<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-ollama</artifactId><version>1.0.0-beta3</version>
</dependency>

阿里云百炼平台

在线集成了阿里的通义系列大模型和第三方大模型,涵盖文本、
图像、音视频等不同模态。
依赖

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-community-dashscope-spring-boot-starter</artifactId>
</dependency>

在官网申请API-Key

langchain4j:community:dashscope:chat-model:api-key: sk-66xxxxxxxmodel-name: qwen-max

AIService

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-spring-boot-starter</artifactId>
</dependency>

AIService用于格式化输入,解析输出,记忆聊天等功能。

  1. 创建接口
package com.atguigu.java.ai.langchain4j.assistant;
public interface Assistant {String chat(String userMessage);
}
  1. 创建类测试
@Autowired
private QwenChatModel qwenChatModel;
@Test
public void testChat() {//创建AIServiceAssistant assistant = AiServices.create(Assistant.class, qwenChatModel);//调用service的接口String answer = assistant.chat("Hello");System.out.println(answer);
}

更方便的方式是使用@AIService注解,然后通过@Autowired使用

package com.atguigu.java.ai.langchain4j.assistant;@AiService(wiringMode = EXPLICIT, chatModel =
"qwenChatModel")
public interface Assistant {String chat(String userMessage);
}

聊天记忆

我们来测试每次聊天是否有记忆

@Autowired
private  Assistant assistant;
@Test
public void testAssistant() {String question1 = "我是赵铁柱";String question2 = "我是谁?";String ans1 = assistant.chat(question1);String ans2 = assistant.chat(question2);System.out.println(ans1);System.out.println(ans2);
}

目前是没记忆的,需要使用chatMemory

  1. 注解
@AiService(wiringMode = EXPLICIT,chatMemory = "chatMemory" chatMemoryProvider="chatMemoryProvider")
  1. 配置类
package com.atguigu.java.ai.langchain4j.config;
@Configuration
public class MemoryChatAssistantConfig {@BeanChatMemory chatMemory() {//设置聊天记忆记录的message数量return MessageWindowChatMemory.withMaxMessages(10);}
}
  1. 注入测试
@Autowired
private MemoryChatAssistant memoryChatAssistant;
@Test
public void testChatMemory4() {String answer1 = memoryChatAssistant.chat("我是环环");System.out.println(answer1);String answer2 = memoryChatAssistant.chat("我是谁");System.out.println(answer2);
}

隔离聊天

  1. 在AIService中添加chatMemoryProvider
@AiService(wiringMode = WiringMode.EXPLICIT,chatModel = "qwenChatModel",chatMemory = "chatMemory"chatMemoryProvider="chatMemoryProvider")
public interface SeparateChatAssistant {/*** 处理用户消息并维护独立的对话上下文* @param memoryId 对话内存 ID(区分不同用户)* @param userMessage 用户输入的消息* @return AI 回复*/String chat(@MemoryId int memoryId, @UserMessage String userMessage);
}
  1. 配置chatMemoryProvider类

MongoDB

  1. 引入依赖
<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-mongodb</artifactId>
</dependency>
  1. 配置项:spring.data.mongodb.uri = mongodb://localhost:27017/chat_memory_db
  2. 实现Entity
@Data
@AllArgsConstructor
@NoArgsConstructor
@Document("chat_message")
public class ChatMessages {@Id //对应数据库的id字段private ObjectId messageId; //MongoDB自动生成id为ObjectId类型private String content;}
  1. 使用MongoTemplate测试
@Autowired
private MongoTemplate mongoTemplate;@Test
public void testInsert(){ChatMessages chatMessages = new ChatMessages();chatMessages.setContent("哈哈哈哈");
//        数据库自动生成idmongoTemplate.insert(chatMessages);
}

接下来可以在IDEA中连接数据库在线查看。

操作代码具体代码
插入insert(object)
查找findbyId(‘id’,Class)、findAll(Class)
更新upsert(query,update,Class)Query query = Query.query(Criteria.where(“id”).is(id)); Update update = new Update().set(“age”, newAge);
删除remove(query,Class)

持久化存储

  1. 配置chatMemoryProvider
    @AiService(chatMemoryProvider = "chatMemoryProvider")和实体类
  2. 配置MongoChatMemoryStore,重写getMessages等三大方法
@Component
public class MongoChatMemoryStore implements ChatMemoryStore {@Autowiredprivate MongoTemplate mongoTemplate;@Overridepublic List<ChatMessage> getMessages(Object memoryId) {Query query = new Query(Criteria.where("memoryId").is(memoryId));ChatMessages chatMessages = mongoTemplate.findOne(query,ChatMessages.class);// 将String转成反序列化 转出List<ChatMessage>if (chatMessages==null){return new ArrayList<ChatMessage>();}List<ChatMessage> chatMessage = ChatMessageDeserializer.messagesFromJson(chatMessages.getContent());System.out.println("反序列化:"+chatMessage);return chatMessage;}@Overridepublic void updateMessages(Object memoryId, List<ChatMessage> list) {// 查询条件Criteria criteria = Criteria.where("memoryId").is(memoryId);Query query = new Query(criteria);Update update = new Update();// 插入更新消息列表update.set("content", ChatMessageSerializer.messagesToJson(list));mongoTemplate.upsert(query,update,ChatMessages.class);}@Overridepublic void deleteMessages(Object memoryId) {// 查询条件Criteria criteria = Criteria.where("memoryId").is(memoryId);// 构建查询对象Query query = new Query(criteria);mongoTemplate.remove(query,ChatMessages.class);}
}
  1. 测试
 @Autowiredprivate  Assistant assistant;@Testpublic void testAssistant() {String question1 = "我是赵铁柱";String question2 = "我是谁?";String ans1 = assistant.chat(1,question1);String ans2 = assistant.chat(1,question2);String ans3 = assistant.chat(2,question2);}

Prompt

@SystemMessage 设定角色,塑造AI助手的专业身份,明确助手的能力范围

  1. 配置@SystemMessage
@SystemMessage("你是我的好朋友,请用东北话回答问题。")//系统消息提示词
String chat(@MemoryId int memoryId, @UserMessage String userMessage);
  1. 配置用户输入@UserMessage
@UserMessage("你是我的好朋友,请用东北话回答问题。")//系统消息提示词
String chat(@UserMessage String userMessage);
  1. 配置@V传递参数
@UserMessage("你是我的好朋友,请用上海话回答问题,并且添加一些表情符号。{{message}}")
String chat(@V("message") String userMessage);

*创建小智医疗助手

  1. 创建XiaoZhiAssistant
  2. 提示词模版:xiaozhi-prompt-template.txt
  3. 配置chatMemoryProvider持久化和记忆回话隔离
  4. 创建实体类
  5. 创建Controller方法

在这里插入图片描述

Function Calling(Tools)

大语言模型的缺陷是数学能力不擅长

  1. @Tool注解提供数学工具
@Component
public class CalculatorTools {@Tooldouble sum(double a, double b) {System.out.println("调用加法运算");return a + b;}@Tooldouble squareRoot(double x) {System.out.println("调用平方根运算");return Math.sqrt(x);}
}
  1. 在@AiService配置tools ="calculatorTools"

根据工具的不同,即使没有任何描述,大语言模型可能也能很好地理解它,例如add(a, b) 。

实战小智医疗智能体

  1. 实现业务,在tools中提示大模型预约流程和结果
    加载Mysql等
@Component
public class AppointmentTool {@Autowiredprivate AppointmentService appointmentService;@Tool(name="预约挂号",value="根据参数,先查询是否当天是否预约过,如果没有预约过,则进行预约,返回预约结果")public String appointment(Appointment appointment) {// 先查询是否当天是否预约过if (appointmentService.isAppointment(appointment)) {return "您今天已经预约过了,请勿重复预约";}// 进行预约boolean result = appointmentService.appointment(appointment);if (result) {return "预约成功";} else {return "预约失败";}}}

在这里插入图片描述

RAG

LLM的知识仅限于它所训练的数据。如果你想让LLM了解特定领域的知识或转专有数据,需要微调。
RAG通过​​检索外部知识库​​(如文档、数据库),将检索到的相关信息作为上下文输入给生成模型,辅助生成更准确的回答。

1. 全文搜索
2. **向量搜索**(向量余弦相似度,独立的向量数据库)
3. 混合搜索

RAG的过程

  1. 索引阶段
    xx
  2. 检索阶段
    xxx
  3. 文档加载器,文档解析器,文档分割器
//文档加载器,文档解析器,文档分割器
PathMatcher pathMatcher = FileSystems.getDefault().getPathMatcher("glob:*.txt");
List<Document> documents = FileSystemDocumentLoader.loadDocuments(folder, pathMatcher,new TextDocumentParser());
//

Token分词器

在这里插入图片描述

向量存储

之前我们使用的是InMemoryEmbeddingStore作为向量存储,但是不建议在生产中使用基于内存的向量存储。因此这里我们使用Pinecone作为向量数据库。

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-pinecone</artifactId>
</dependency>
#集成阿里通义千问-通用文本向量-v3,注入EmbeddingModel
langchain4j.community.dashscope.embedding-model.api-key=${DASH_SCOPE_API_KEY}
langchain4j.community.dashscope.embedding-model.model-name=text-embedding-v3
  1. 配置EmbeddingStoreConfig
  2. //相似度匹配embeddingSearch
  3. 上传知识库到Pinecone
  4. 在AssistantConfig中添加contentRetrieverXiaozhiPincone
  5. AiService注解加contentRetriever=“contentRetrieverXiaozhiPincone”

流式输出

大模型的流式输出是指大模型在生成文本或其他类型的数据时,不是等到整个生成过程完成后再一次性返回所有内容,而是生成一部分就立即发送一部分给用户或下游系统,以逐步、逐块的方式返回结果。

<!--流式输出-->
<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-webflux</artifactId>
</dependency>
<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-reactor</artifactId>
</dependency>

1.配置

#集成阿里通义千问-流式输出
langchain4j.community.dashscope.streaming-chat-model.api-key=${DASH_SCOPE_API_KEY}
langchain4j.community.dashscope.streaming-chat-model.model-name=qwen-plus
  1. AIService添加
    streamingChatModel = "qwenStreamingChatModel"
  2. 修改chat方法返回类型为Flux,也别忘了修改Controller中的返回类型

总结

整个框架流程如下
在这里插入图片描述

完结撒花!
在这里插入图片描述

相关文章:

  • 如何让open-mpi在不同版本的OS上运行
  • java方法的练习题
  • Python内存管理:赋值、浅拷贝与深拷贝解析
  • 数智管理学(九)
  • 【匹配】Smith-Waterman
  • 【高频面试题】LRU缓存
  • JavaScript - 运算符之逗号操作符与逗号分隔符(逗号操作符概述、逗号操作符用法、逗号分隔符、逗号分隔符用法)
  • Miniconda介绍介绍和使用
  • Unix Bourne Shell
  • 已解决(亲测有效!):安装部署Docker Deskpot之后启动出现Docker Engine Stopped!
  • ollama 重命名模型
  • Vue.js---避免无限递归循环 调度执行
  • Elasticsearch 常用语法手册
  • [吾爱出品] 中医问诊辅助记录软件
  • ES常识8:ES8.X如何实现热词统计
  • CPU cache基本原理
  • 基于javaweb的JSP+Servlet家政服务系统设计与实现(源码+文档+部署讲解)
  • 2900. 最长相邻不相等子序列 I
  • Windows注册表备份与恢复指南
  • AI大模型:(二)2.5 人类对齐训练自己的模型
  • 中国情怀:时代记录与家国镜相|澎湃·镜相第三届非虚构写作大赛征稿启事
  • 国家卫健委通报:吊销肖某医师执业证书,撤销董某莹四项证书
  • 昆明警方重拳打击经济领域违法犯罪:去年抓获905名嫌犯
  • 七部门:进一步增强资本市场对于科技创新企业的支持力度
  • 广东省原省长卢瑞华逝世,享年88岁
  • 第十届影像上海博览会落幕后,留给中国摄影收藏的三个问题