当前位置: 首页 > news >正文

【AI】SpringAI 第四弹:接入本地大模型 Ollama

Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型, 简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。

1. 确保Ollama 已经启动

# 查看帮助文档
ollama -h# 自动下载并启动
ollama run deepseek-r1:1.5b

2. 项目添加依赖

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>

3. 配置 yml 配置文件

spring:ai:ollama:base-url: http://127.0.0.1:11434 # 默认端口号chat:options:model: deepseek-r1:1.5b

4. 编写代码

@RestController
@RequestMapping("/ol")
public class OllamaController {@Resourceprivate OllamaChatModel chatModel;@RequestMapping("/chat")public String chat(String prompt) {String call = chatModel.call(prompt);System.out.println(call);return call;}
}

相关文章:

  • 如何正确选择培养基种类
  • PaddlePaddle线性回归详解:从模型定义到加载,掌握深度学习基础
  • MacOS 10.15上能跑大语言模型吗?
  • HCIP(OSPF)(3)
  • qt报“use multi-arg instead [clazy-qstring-arg]”警告的解决方法
  • QML FontDialog:使用FontDialog实现字体选择功能
  • 如何Ubuntu 22.04.5 LTS 64 位 操作系统部署运行SLAM3! 详细流程
  • SAP获利分析KEA0-值字段无法被分配,原因既然是。。
  • Node.js技术原理分析系列8——将Node.js内置模块外置
  • 机器学习超参数优化全解析
  • 一洽智能硬件行业解决方案探索与实践
  • 德施曼重磅发布五大突破性技术及多款重磅新品,开启AI智能管家时代
  • 2025年五大ETL数据集成工具推荐
  • mcpo的简单使用
  • .NET仓储层在 using 块中创建 SqlSugarClient 的风险
  • 射频系统级芯片集成技术研究
  • echarts模板化开发,简易版配置大屏组件-根据配置文件输出图形和模板(vue2+echarts5.0)
  • Vue 3 Watch 监听 Props 的踩坑记录
  • Git常用操作命令
  • Qt 下载的地址集合
  • “面具女孩”多次恐吓电梯内两幼童,当事女孩及家长道歉后获谅解
  • 中方拟解除对5名欧洲议会议员制裁?外交部:望中欧立法机构相向而行
  • 神十九飞船已撤离空间站,计划于今日中午返回东风着陆场
  • 习近平访问金砖国家新开发银行
  • 跟着京剧电影游运河,京杭大运河沿线六城举行京剧电影展映
  • 初步结果显示加拿大自由党赢得大选,外交部回应