当前位置: 首页 > wzjs >正文

扁平化购物网站模板东莞推广平台有哪些

扁平化购物网站模板,东莞推广平台有哪些,普洱市住房和城乡建设局网站,最轻快的wordpress主題随着AI大模型技术的升起,人们越来越感觉到生活上的便捷以及人机对话照进现实.什么是大模型呢? 大模型(Large Model),通常是指参数量非常庞大的深度学习模型,特别是在自然语言处理(NLP)、计算机视觉&#…

随着AI大模型技术的升起,人们越来越感觉到生活上的便捷以及人机对话照进现实.什么是大模型呢?

大模型(Large Model),通常是指参数量非常庞大的深度学习模型,特别是在自然语言处理(NLP)、计算机视觉(CV)等领域中,模型参数数量达到数十亿甚至数千亿的规模。

为了弥补Java在AI领域的工具短板,现在市面上出现了几款针对Java的AI开发工具.

一. AI开发工具

1.1 LangChain4J

  • 提供标准化API,支持超过15个主流大模型提供商和嵌入存储,
  • 提供工具箱,从低级提示词模板到高级AI服务,适合构建聊天机器人和检索增强生成(RAG)管道。
  • 社区支持活跃,能够快速整合最新的AI技术,便于Java开发者将AI功能集成到现有项目中

1.2 Spring Al

  • 深度集成到Spring框架中,Java开发者可以轻松将AI功能嵌入到现有Spring项目中。
  • 尽管Spring Al仍处于发展阶段,尚未发布正式版本,但其凭借Spring生态系统,具备了极强的扩展 性和集成能力。

1.3 Spring AI Alibaba

  • 提供多种大模型服务对接能力,包括主流开源与阿里云通义大模型服务(百炼)等 支持的模型类型包括聊天、文生图、音频转录、文生语音等

本文详解Langchain4j的使用.

二. 基本使用

由于现在Java开发都是基于SpringBoot整合开发,所以langchain4j也提供了对应的依赖包.除此我们也需要引入web的依赖

<dependencies><!-- langchain4j依赖  --><dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-spring-boot-starter</artifactId></dependency><!-- open-ai依赖  --><dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-open-ai-spring-boot-starter</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency>
</dependencies>

版本管理

<properties><maven.compiler.source>17</maven.compiler.source><maven.compiler.target>17</maven.compiler.target><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><spring-boot.version>3.3.4</spring-boot.version>
</properties><dependencyManagement><dependencies><dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-bom</artifactId><version>0.35.0</version><type>pom</type><scope>import</scope></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-dependencies</artifactId><version>${spring-boot.version}</version><type>pom</type><scope>import</scope></dependency></dependencies>
</dependencyManagement>

接下来我们需要注入对话服务的模型,这列我们以阿里百炼的模型作为基础模型.

2.1 环境准备

在引入百炼的大模型前,我们需要配置一些环境.访问百炼大模型的官网.

阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台

我们需要获取一个API-KEY

然后这里可能需要你去充值,不用充值多了,几块就够啦.然后我们去到模型广场

点击查看详情.获取到model-name和baseUrl

获取到,去SpringBoot的application.yml配置文件配置

langchain4j:open-ai:chat-model:api-key: 你的api-keymodel-name: qwen-maxbase-url: 对应的url

LangChain4j本身提供了一个语言模型(ChatLanguageModel),我们注入使用即可,创建一个Controller类测试

@RestController
public class ChatController {ChatLanguageModel chatLanguageModel;public ChatController(ChatLanguageModel chatLanguageModel) {this.chatLanguageModel = chatLanguageModel;}@GetMapping("/chat")public String model(@RequestParam(value = "message", defaultValue = "Hello") String message) {return chatLanguageModel.generate(message);}
}

调用Postman或者其他测试工具测试

完成基本的模型对接使用.

三.常规使用

3.1 配置类配置

刚刚我们是基于yml配置文件配置的,实际上我们还可以通过配置类来完成配置.

@Configuration
public class LLMConfig {/*** 构建 LLM 模型* @return*/@Beanpublic ChatLanguageModel chatLanguageModel(){return OpenAiChatModel.builder().apiKey("").modelName("qwen-max").baseUrl("").build();}
}

3.2 AI-Service

之前这种自动注入LangChain4j给我们提供的类来完成模型调用,不太灵活,我们若想不同的服务使用不同的大模型,这种方式就不太可取,实际上他还提供了AI-Service的工具类来帮助我们可以灵活更换大模型.

编写一个接口

public interface IChatAssistant {String chat(String message);
}

我们修改一下我们的配置类

@Configuration
public class LLMConfig {/*** 构建 LLM 模型* @return*/@Beanpublic ChatLanguageModel chatLanguageModel(){return OpenAiChatModel.builder().apiKey("").modelName("qwen-max").baseUrl("").build();}/*** 构建 LLM 服务,AI助手,基于配置的大模型来使用* @return*/@Beanpublic IChatAssistant chatAssistant(){return AiServices.builder(IChatAssistant.class).chatLanguageModel(chatLanguageModel()).build();}
}

测试,依旧能够访问

3.3 日志打印

去执行上述测试的小伙伴应该发现了,控制台没有任何的日志输出,我们不知道用户具体输入了什么,对于排查问题来讲肯定是不友好的.Langchain4j为我们提供了日志的开关,让我们可以查看到日志的打印.

修改yml配置文件

logging:level:dev:langchain4j: DEBUGai4j:openai4j: DEBUG

修改配置类

/*** 构建 LLM 模型* @return*/
@Bean
public ChatLanguageModel chatLanguageModel(){return OpenAiChatModel.builder().apiKey("").modelName("qwen-max")// 是否打印请求日志.logRequests(true)// 是否打印响应日志.logResponses(true).baseUrl("").build();
}

当然还有一步,Langchain4j是基于SLF4j的日志框架,所以我们需要引入logback日志框架

<dependency><groupId>ch.qos.logback</groupId><artifactId>logback-classic</artifactId><version>1.5.8</version>
</dependency>

测试,控制台打印

3.4 流式响应

测试过后的同学应该发现了,我们需要等待很久,最后才把输出的结果给到我们.这样对用户的体验肯定是不友好的.我们平常使用的一些ai大模型,是可以感受到他是慢慢的打印出来回复你的答案,而不是一口气讲所有的文本返回回来.

Langchain4j也为我们提供了这样的流式响应的功能.我们需要引入新的依赖

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-reactor</artifactId><version>0.35.0</version>
</dependency>

然后需要引入新的配置,Langchain4j提供了流式大模型.我们什么都不用改,只需要修改注入的类就行,其他的配置与原来的相同.以及再配置一个AI-Service.

@Bean
public StreamingChatLanguageModel streamingChatLanguageModel(){return OpenAiStreamingChatModel.builder().apiKey("").modelName("qwen-max")// 是否打印请求日志.logRequests(true)// 是否打印响应日志.logResponses(true).baseUrl("").build();
}
@Bean
public IChatStreamAssistant chatStreamAssistant(){return  AiServices.builder(IChatStreamAssistant.class).streamingChatLanguageModel(streamingChatLanguageModel()).build();
}

对接的AI-Service需要修改其的返回类型.

package org.kuchen.service;import reactor.core.publisher.Flux;/*** @author kuchen*/
public interface IChatStreamAssistant {Flux<String> chat(String message);
}

controller层编写

我们可以去浏览器直观的感受,流式响应的效果

流式响应

http://www.dtcms.com/wzjs/73696.html

相关文章:

  • 要想提高网站排名应该如何做网站收录一般多久
  • 西安高端网站建设首选百度竞价是什么意思?
  • 找人搭建网站多少钱网站seo去哪个网站找好
  • 获取网站域名宁波网络推广产品服务
  • 湖北省建设工程造价管理协会网站互联网行业都有哪些工作
  • 网上买吃的网站做代理营销策略ppt
  • 网站里的个人中心下拉列表怎么做搜索引擎优化的含义和目标
  • 电子商务网站开发基本流程图海南百度推广中心
  • 网站阵地建设百度指数分析
  • 怎样用vps做网站怎么搜索关键词
  • 北京网站优化步网络营销环境分析
  • 企业建网站作用十大禁止安装应用入口
  • 长宁区网站建设设计话色网站建设
  • 金坛市政建设有限公司网站最新实时新闻
  • 在线客服系统开源优化工具箱
  • 网络推广专员招聘seo基础优化包括哪些内容
  • 成都农产品网站建设方案最能打动顾客的十句话
  • 企业网站备案名称要求肇庆seo排名外包
  • 网站建设哪公司好磁力在线搜索引擎
  • 有没有做链接的网站吗优化关键词的方法
  • 二次元主题wordpress搜索引擎优化网站的网址
  • 网站 服务器 域名东莞搜索优化
  • 做理财的网站有哪些内容山东百度推广总代理
  • 新增网站推广教程全球疫情最新数据消息
  • 万网一台虚拟主机做多个网站郑州seo优化外包顾问
  • 商会网站建设搜索引擎营销是什么
  • 禁止下载app网站制作网站模板
  • 企业管理软件app武汉seo网站优化
  • 手工做衣服网站有哪些同城发广告的平台有哪些
  • 合肥网站建设方案关键词调词平台