当前位置: 首页 > news >正文

AI应用开发实战分享

一、前言

30年前的Intel+Windows互相绑定,让世界被计算机技术重构了一次,有了程序员这个工种。十几年前iPhone、Android前后脚发布,智能手机和移动App互相绑定,引爆了一个长达十几年的移动互联网大跃进时代。而随着人工智能大模型能力越来越强,特别是DeepSeek等模型显著降低AI应用门槛,推动办公、创意、软件开发等领域涌现出大量革新性应用。与30年前计算机革命、移动互联网浪潮类似,AI已非短暂趋势,而是未来技术核心方向。

当我们进入AI Agent时代之后,作为一个开发程序员,如果能在未来不被淘汰,就需要主动拥抱大模型技术,深化AI工具使用,才能借助大模型走的更远。本篇文章将从学习笔记的角度,介绍一些AI应用的知识点、学习资料和简单应用案例。

二、AI应用开发的两大实现方式

我们用一个例子来看看AI应用开发的两种方式。

需求描述

假如现在有一个 名叫“易速鲜花”在线鲜花销售平台,这个平台有自己专属的运营指南、员工手册、鲜花资料等数据。新员工在入职培训时,需要为其介绍这些信息。

因此我们将开发一个基于各种内部知识手册的AI智能助手,该助手够理解员工的问题,并基于最新的内部数据,给出精准的答案。

方式1:使用编程框架开发实现(以LangChain为例)

LangChain是由Harrison Chase推出的开源框架,旨在解决大语言模型(LLM)在实际应用中的工程化难题。它通过标准化的接口和模块化设计,将LLM与外部数据、计算资源及业务逻辑连接,形成可落地的智能应用。这个框架的定位类似于数据库领域的JDBC,成为AI应用开发的"中间件"。

实现步骤

  • 第一步:通过 LangChain 中的 文档加载器、文本拆分器、嵌入模型、向量存储、索引 模块,构建检索增强生成(RAG)能力,让AI可基于特定的内部知识给出专业回答
  • 第二步:通过LangChain的 模型 模块,实现一个最基本的聊天对话助手
  • 第三步:通过 LangChain 中的 记忆、提示模板 模块,让这个聊天机器人能够记住用户之前所说的话

代码

# 导入所需的库
import os
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Qdrant
from langchain.memory import ConversationSummaryMemory
from langchain.chat_models import ChatOpenAI
from langchain.chains import ConversationalRetrievalChain
from langchain.document_loaders import PyPDFLoader
from langchain.document_loaders import Docx2txtLoader
from langchain.document_loaders import TextLoader# 设置OpenAI API密钥
os.environ["OPENAI_API_KEY"] = '自己的key'  # AI助手
class ChatbotWithRetrieval:def __init__(self, dir):# 加载Documents# 文档的存放目录,目录中是提供给ai的私有、内部的pdf、word、txt数据base_dir = dir documents = []for file in os.listdir(base_dir): # 构建完整的文件路径file_path = os.path.join(base_dir, file)if file.endswith('.pdf'):loader = PyPDFLoader(file_path)documents.extend(loader.load())elif file.endswith('.docx') or file.endswith('.doc'):loader = Docx2txtLoader(file_path)documents.extend(loader.load())elif file.endswith('.txt'):loader = TextLoader(file_path)documents.extend(loader.load())# 文本的分割# 将Documents切分成一个个200字符左右文档块,以便后续进行嵌入和向量存储text_splitter = RecursiveCharacterTextSplitter(chunk_size=200, chunk_overlap=0)all_splits = text_splitter.split_documents(documents)# 向量数据库# 将这些分割后的文本转换成嵌入的形式,并将其存储在一个向量数据库中。# 这里使用了 OpenAIEmbeddings 来生成嵌入,然后使用 Qdrant 这个向量数据库来存储嵌入self.vectorstore = Qdrant.from_documents(documents=all_splits, # 以分块的文档embedding=OpenAIEmbeddings(), # 用OpenAI的Embedding Model做嵌入location=":memory:",  # in-memory 存储collection_name="my_documents",) # 指定collection_name# !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!# 通过上面的文档加载、文本分割、文档向量化以及检索功能,就构建好了检索增强生成(RAG)能力。# 当用户输入一个问题时,程序首先在向量数据库中查找与问题最相关的文本块。# 这是通过将用户问题转化为向量,并在数据库中查找最接近的文本块向量来实现的。# 后面程序才能使用 LLM(大模型),以找到的这些相关的文本块为资料,进一步寻找答案,并生成回答。# 初始化LLM模型self.llm = ChatOpenAI()# 初始化Memory# ChatbotWithMemory 类的初始化函数中,定义了一个对话缓冲区记忆,它会跟踪对话历史。# 在 LLMChain 被创建时,就整合了 LLM、提示和记忆,形成完整的对话链。self.memory = ConversationSummaryMemory(llm=self.llm, memory_key="chat_history", return_messages=True)# 设置Retrieval Chain# ConversationalRetrievalChain组件,内部实现了Prompt的自动化传递流程,最中会组成这样的prompt传递给模型# final_prompt = f"""# System: 基于以下知识回答问题:# {检索到的文档}# # Chat History: {记忆中的对话摘要}# # Human: {当前用户输入}# """retriever = self.vectorstore.as_retriever()self.qa = ConversationalRetrievalChain.from_llm(self.llm, retriever=retriever, memory=self.memory)# 交互对话的函数def chat_loop(self):print("Chatbot 已启动! 输入'exit'来退出程序。")while True:user_input = input("你: ")if user_input.lower() == 'exit':print("再见!")break# 调用 Retrieval Chain  response = self.qa(user_input)print(f"Chatbot: {response['answer']}")if __name__ == "__main__":# AI助手folder = "OneFlower"bot = ChatbotWithRetrieval(folder)bot.chat_loop()
 

效果

总结

在上面的 5 个步骤中,我们使用到了很多 LangChain 技术,包括提示工程、模型、链、代理、RAG、数据库检索等,而除此之外LangChain还有下面其他功能强大的核心模块。

另外除了LangChain框架,还有其他的比如java的LangChain 4j、spring ai。各个框架的api可能有差异,但解决的问题基本都是相同的。

LangChain核心模块和解决的问题:

提示模板

提示模板负责将用户输入格式化为可以传递给语言模型的格式。

  • 如何:使用少量示例
  • 如何:在聊天模型中使用少量示例
  • 如何:部分格式化提示模板
  • 如何:组合提示

示例选择器

示例选择器负责选择正确的少量示例以传递给提示。

  • 如何:使用示例选择器
  • 如何:按长度选择示例
  • 如何:按语义相似性选择示例
  • 如何:按语义n-gram重叠选择示例
  • 如何:按最大边际相关性选择示例

聊天模型

聊天模型是较新的语言模型形式,接收消息并输出消息。

  • 如何:进行函数/工具调用
  • 如何:让模型返回结构化输出
  • 如何:缓存模型响应
  • 如何:获取日志概率
  • 如何:创建自定义聊天模型类
  • 如何:流式返回响应

LLMs

LangChain所称的LLM是较旧的语言模型形式,接收字符串输入并输出字符串。

  • 如何:缓存模型响应
  • 如何:创建自定义LLM类
  • 如何:流式返回响应
  • 如何:跟踪令牌使用情况
  • 如何:使用本地LLMs

输出解析器

输出解析器负责将LLM的输出解析为更结构化的格式。

  • 如何:使用输出解析器将LLM响应解析为结构化格式
  • 如何:解析JSON输出
  • 如何:解析XML输出
  • 如何:解析YAML输出

文档加载器

文档加载器负责从各种来源加载文档。

  • 如何:加载CSV数据
  • 如何:从目录加载数据
  • 如何:加载HTML数据
  • 如何:加载JSON数据
  • 如何:加载Markdown数据
  • 如何:加载Microsoft Office数据

文本拆分器

文本拆分器将文档拆分为可用于检索的块。

  • 如何:递归拆分文本
  • 如何:按HTML标题拆分
  • 如何:按HTML部分拆分
  • 如何:按字符拆分
  • 如何:拆分代码
  • 如何:按Markdown标题拆分

嵌入模型

嵌入模型将一段文本转换为数值表示。

  • 如何:嵌入文本数据
  • 如何:缓存嵌入结果

向量存储

向量存储是可以有效存储和检索嵌入的数据库。

  • 如何:使用向量存储检索数据

检索器

检索器负责接收查询并返回相关文档。

  • 如何:使用向量存储检索数据
  • 如何:生成多个查询以检索数据
  • 如何:使用上下文压缩来压缩检索到的数据
  • 如何:编写自定义检索器类

索引

索引是使向量存储与基础数据源保持同步的过程。

  • 如何:重新索引数据以使向量存储与基础数据源保持同步

工具

LangChain工具包含工具的描述(传递给语言模型)以及要调用的函数的实现。

  • 如何:创建自定义工具
  • 如何:使用内置工具和内置工具
  • 如何:使用聊天模型调用工具
  • 如何:向LLMs和聊天模型添加临时工具调用功能

代理

注意:有关代理的深入操作指南,请查看LangGraph文档。

  • 如何:使用传统LangChain代理(AgentExecutor)
  • 如何:从传统LangChain代理迁移到LangGraph

回调

回调允许你在LLM应用程序的各个阶段进行挂钩。

  • 如何:在运行时传递回调
  • 如何:将回调附加到模块
  • 如何:在模块构造函数中传递回调
  • 如何:创建自定义回调处理程序

自定义

所有LangChain组件都可以轻松扩展以支持你自己的版本。

  • 如何:创建自定义聊天模型类
  • 如何:创建自定义LLM类
  • 如何:编写自定义检索器类
  • 如何:编写自定义文档加载器
  • 如何:编写自定义输出解析器类

学习资料

  • LangChain:
    • Introduction | 🦜️🔗 LangChain
    • LangChain中文网:500页中文文档教程,助力大模型LLM应用开发从入门到精通
  • LangChain 4j:
    • LangChain4j | LangChain4j
  • Spring Ai:
    • Spring AI 简介 - spring 中文网
    • Spring AI

方式2:通过LLM应用开发平台搭建(以字节的coze为例)

扣子是新一代 AI 应用开发平台。无论你是否有编程基础,都可以借助扣子提供的可视化设计与编排工具,通过零代码或低代码的方式,快速搭建出基于大模型的各类 AI 项目,并将 AI 应用发布到各个社交平台、通讯软件,也可以通过 API 或 SDK 将 AI 应用集成到你的业务系统中。

(网址:扣子)

实现步骤详情

(可以和方法1的步骤对照,实际上就是把咱们方法1的代码逻辑,封装成了可配置的平台)

  • 第一步:在扣子搭建知识库,构建检索增强生成(RAG)能力,让AI可基于特定的内部知识给出专业回答

新建

上传

配置规则(用默认的就好)

根据规则切割成文本块

完成向量处理

  • 第二步:在扣子创建一个智能体,实现一个最基本的聊天对话助手

创建

关联之前创建的本地知识库: 知识 >文本配置区,单击+添加已经创建的知识库

配置prompt

(之前方法2的代码中,ConversationalRetrievalChain组件内部实现了Prompt的自动化传递流程,所以那个不需要显式的配置)

选择底层的模型,即可完成助手的搭建

(智能体自动实现了短期记忆,也不需要手动配置,长期记忆可以在技能里配)

最后,扣子还可以发布到其他其他平台,或通过调用api来使用

效果

总结

通过AI应用搭建平台,我们可以非常简单的搭建各种ai应用,感兴趣可以看看字节各种类型应用的最佳实践。

而除了字节的扣子,现在还有很多其他的同样优秀的产品,后面我将介绍一款开源的LLM应用开发平台 Dify ,并展示如何 本地化部署模型、搭建本地AI开发平台、构建本地知识库、接入Springboot项目。

学习资料

  • 扣子:
    • 扣子
  • Dify
    • 产品简介 - Dify Docs
  • 其他
    • 国内Agent平台深度测评:扣子、Dify、FastGPT...:全网最全国内Agent平台深度测评:扣子、Dify、FastGPT,谁是你的Agent开发首选? - ExplorerMan - 博客园
    • Dify与Coze平台深度对比分析:Dify与Coze平台深度对比分析 - 53AI-AI知识库|大模型知识库|大模型训练|智能体开发

三、搭建本地化AI助手并引入项目实践(附代码)

该实践采用DeepSeek开源模型与Dify平台,结合SpringBoot实现业务集成,具体细节如下:

模型:模型选择开源的 DeepSeek R1 7b,用ollama来部署

平台:上面展示过的扣子是闭源的,因此这里我们使用的是开源的Dify

服务调用:这里是在springboot项目中用webClient框架,调用搭建好的应用的api,最后基于SSE协议流式返回数据给前端

安装部署

这一步我们需要完成模型和平台的下载、部署、配置。安装细节可以参考以下文章:

  • 安装部署实操指南:DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级教程最近,DeepSeek大火,想必大家都有所耳 - 掘金
  • 多平台部署模型文档汇总:接入 Hugging Face 上的开源模型 - Dify Docs
  • Dify安装部署文档:部署社区版 - Dify Docs

搭建应用

创建知识库

创建所需要的ai应用

对应用进行配置:

  • 选择我们本地部署的模型;
  • 连接我们搭建的知识库;
  • 填好prompt;

配置完成后点击发布,即可通过下面的api进行访问

连接项目

这里我们只展示最简单的与ai对话的功能所需要做的操作。简单流程图如下:

后端代码

Dify的服务接口有两种响应模式:

  • streaming 流式模式(推荐)。基于 SSE(Server-Sent Events)实现类似打字机输出方式的流式返回。
  • blocking 阻塞模式,等待执行完毕后返回结果。(请求若流程较长可能会被中断)。 由于 Cloudflare 限制,请求会在 100 秒超时无返回后中断。 注:Agent模式下不允许blocking。

下面代码包含如何在springboot项目中流式接收数据。


controller:import com.pitayafruit.resp.BlockResponse;
import com.pitayafruit.resp.StreamResponse;
import com.pitayafruit.service.DifyService;
import lombok.RequiredArgsConstructor;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
import reactor.core.publisher.Flux;@RestController
@RequestMapping("/api/test")
@RequiredArgsConstructor
public class TestController {//下面的testKey是你所搭建的应用的唯一值。位置在 访问api——右上角api密钥@Value("${dify.key.test}")private String testKey;private final DifyService difyService;@GetMapping("/block")public String test1() {String query = "鲁迅和周树人什么关系?";BlockResponse blockResponse = difyService.blockingMessage(query, 0L, testKey);return blockResponse.getAnswer();}@GetMapping("/stream")public Flux<StreamResponse> test2() {String query = "鲁迅和周树人什么关系?";return difyService.streamingMessage(query, 0L, testKey);}
}service:import com.alibaba.fastjson2.JSON;
import com.pitayafruit.req.DifyRequestBody;
import com.pitayafruit.resp.BlockResponse;
import com.pitayafruit.resp.StreamResponse;
import java.util.HashMap;
import java.util.List;
import lombok.RequiredArgsConstructor;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.http.HttpEntity;
import org.springframework.http.HttpHeaders;
import org.springframework.http.MediaType;
import org.springframework.http.ResponseEntity;
import org.springframework.stereotype.Service;
import org.springframework.web.client.RestTemplate;
import org.springframework.web.reactive.function.client.WebClient;
import reactor.core.publisher.Flux;@Service
@RequiredArgsConstructor
public class DifyService {@Value("${dify.url}")private String url;private final RestTemplate restTemplate;private final WebClient webClient;/*** 流式调用dify.** @param query  查询文本* @param userId 用户id* @param apiKey apiKey 通过 apiKey 获取权限并区分不同的 dify 应用* @return Flux 响应流*/public Flux<StreamResponse> streamingMessage(String query, Long userId, String apiKey) {//1.设置请求体DifyRequestBody body = new DifyRequestBody();body.setInputs(new HashMap<>());body.setQuery(query);body.setResponseMode("streaming");body.setConversationId("");body.setUser(userId.toString());//2.使用webclient发送post请求return webClient.post().uri(url).headers(httpHeaders -> {httpHeaders.setContentType(MediaType.APPLICATION_JSON);httpHeaders.setBearerAuth(apiKey);}).bodyValue(JSON.toJSONString(body)).retrieve().bodyToFlux(StreamResponse.class);}/*** 阻塞式调用dify.** @param query 查询文本* @param userId 用户id* @param apiKey apiKey 通过 apiKey 获取权限并区分不同的 dify 应用* @return BlockResponse*/public BlockResponse blockingMessage(String query, Long userId, String apiKey) {//1.设置请求体DifyRequestBody body = new DifyRequestBody();body.setInputs(new HashMap<>());body.setQuery(query);body.setResponseMode("blocking");body.setConversationId("");body.setUser(userId.toString());//2.设置请求头HttpHeaders headers = new HttpHeaders();headers.setContentType(MediaType.APPLICATION_JSON);headers.setAccept(List.of(MediaType.APPLICATION_JSON));headers.setBearerAuth(apiKey);//3.封装请求体和请求头String jsonString = JSON.toJSONString(body);HttpEntity<String> entity = new HttpEntity<>(jsonString, headers);//4.发送post请求,阻塞式ResponseEntity<BlockResponse> stringResponseEntity =restTemplate.postForEntity(url, entity, BlockResponse.class);//5.返回响应体return stringResponseEntity.getBody();}
}DifyRequestBodyDto:import com.alibaba.fastjson2.annotation.JSONField;
import java.io.Serializable;
import java.util.Map;
import lombok.Data;/*** Dify请求体.*/
@Data
public class DifyRequestBody implements Serializable {/*** 用户输入/提问内容.*/private String query;/*** 允许传入 App 定义的各变量值.*/private Map<String, String> inputs;/*** 响应模式,streaming 流式,blocking 阻塞.*/@JSONField(name = "response_mode")private String responseMode;/*** 用户标识.*/private String user;/*** 会话id.*/@JSONField(name = "conversation_id")private String conversationId;
}BlockResponseDto:import java.io.Serializable;
import java.util.Map;
import lombok.Data;/*** Dify阻塞式调用响应.*/
@Data
public class BlockResponse implements Serializable {/*** 不同模式下的事件类型.*/private String event;/*** 消息唯一 ID.*/private String messageId;/*** 任务ID.*/private String taskId;/*** agent_thought id.*/private String id;/*** 会话 ID.*/private String conversationId;/*** App 模式,固定为 chat.*/private String mode;/*** 完整回复内容.*/private String answer;/*** 元数据.*/private Map<String, Map<String, String>> metadata;/*** 创建时间戳.*/private Long createdAt;}StreamResponseDto:import java.io.Serializable;
import lombok.Data;/*** Dify流式调用响应.*/
@Data
public class StreamResponse implements Serializable {/*** 不同模式下的事件类型.*/private String event;/*** agent_thought id.*/private String id;/*** 任务ID.*/private String taskId;/*** 消息唯一ID.*/private String messageId;/*** LLM 返回文本块内容.*/private String answer;/*** 创建时间戳.*/private Long createdAt;/*** 会话 ID.*/private String conversationId;
}

效果

调用我们发起提问的接口,可以看到数据不停的流式响应

相关文章:

  • 掌握Multi-Agent实践(一):使用AgentScope实践入门和Workstation上手指南
  • QT6 源(84):阅读与注释时间类型 QTime,源代码以及属性测试
  • 5.7线性动态规划1
  • Ubuntu 安装 Keepalived、LVS
  • ROS1和ROS2使用桥接工具通信
  • leeCode算法之独一无二出现次数
  • 自由浮动时间和总浮动时间对比
  • 贷中业务提额、降额策略
  • (eNSP)策略路由实验配置
  • Java中有哪些锁?
  • OpenShift AI - 模型注册管理
  • 绕线机的制作与研究
  • ‌人工智能在农作物病虫害识别中的应用前景分析
  • 【LUT技术专题】基于扩展卷积的极快速LUT算法
  • 如何快速获取旺店通奇门原始数据至本地
  • 嵌入式软件学习指南:从入门到进阶
  • STM32基础教程——软件SPI
  • Cadence 高速系统设计流程及工具使用二
  • 前端面经-VUE3篇(四)--pinia篇-基本使用、store、state、getter、action、插件
  • MDP相关内容
  • 云南临沧一行贿案金额认定比受贿案多41万,重审时检方变更金额起诉
  • 泉州一家婚介机构广告牌越南新娘七天闪婚领证?市监部门介入
  • 央行:将支持资本市场两项货币政策工具的额度合并使用
  • 马上评|从一个细节看今年五一档电影
  • 《中国医药指南》就“宫颈癌等论文出现男性病例”致歉:辞退涉事编辑
  • 48岁黄世芳履新中国驻毛里求斯大使,曾在广西工作多年