当前位置: 首页 > news >正文

Java使用Langchai4j接入AI大模型的简单使用(二)

Ollama 是一个开源工具,可以让我们在本地计算机上轻松运行、管理和部署大型语言模型(LLMs)。以下是 Ollama 的详细使用指南:

1. 安装 Ollama

Windows 安装

  1. 下载安装包: Ollama Windows 版

  2. 双击安装程序并按照提示完成安装

  3. 安装后会自动添加到系统 PATH

Linux 安装

curl -fsSL https://ollama.com/install.sh | sh

2. 基本使用

启动 Ollama 服务

安装后服务会自动启动,也可以手动控制:

# 启动服务
ollama serve# 作为后台服务运行 (Linux/macOS)
ollama serve &

 下载模型

这一步可以不用执行,如果本地没有该模型,自动联网进行安装

ollama pull <模型名称>
# 例如:
ollama pull llama2
ollama pull mistral
ollama pull gemma:2b

运行模型

 ollama run deepseek-r1:1.5b

 deepseek-r1:1.5b总大小为1.1G,下载会有点慢,需耐心等待。不同的模型对电脑配置要求不同,作为个人用,电脑配置一般建议使用 deepseek-r1:1.5b。

 

可输入ollama help查看支持的命令

输入ollama list查看本地安装好的模型,安装和使用示例:

下面使用上一篇文章的方式,测试本地大模型的使用,ollama运行的默认端口为11434:

//Ollama本地大模型
@Test
void testOllamaModel(){ChatLanguageModel model = OllamaChatModel.builder().baseUrl("http://localhost:11434").modelName("deepseek-r1:1.5b").build();String answer = model.chat("你好,你是谁?");System.out.println(answer);
}

运行后输出:

您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

拓展:

3. 常用命令

命令描述
ollama list列出已安装的模型
ollama show <模型>显示模型信息
ollama copy <源模型> <新名称>复制模型
ollama delete <模型>删除模型
ollama help查看帮助

 

http://www.dtcms.com/a/276565.html

相关文章:

  • 线程同步:互斥锁与条件变量实战指南
  • 猿人学js逆向比赛第一届第二十题
  • 关于赛灵思的petalinux zynqmp.dtsi文件的理解
  • 二叉树算法进阶
  • 《Spring 中上下文传递的那些事儿》Part 8:构建统一上下文框架设计与实现(实战篇)
  • 深入理解设计模式之工厂模式:创建对象的艺术
  • Pandas 模块之数据的读取
  • 暑期前端训练day6
  • 【人工智能99问】开篇!
  • 【leetcode】1757. 可回收且低脂的产品
  • FastAdmin项目开发三
  • Python数据容器-集合set
  • 什么是 Bootloader?怎么把它移植到 STM32 上?
  • 关于两种网络攻击方式XSS和CSRF
  • 车载操作系统 --- Linux实时化与硬实时RTOS综述
  • 格密码--数学基础--06对偶空间与对偶格
  • 建造者模式(Builder)
  • Python 实战:构建可扩展的命令行插件引擎
  • Java 方法重载与构造器
  • 【Python练习】039. 编写一个函数,反转一个单链表
  • CSP-S 模拟赛 10
  • pytest自动化测试框架实战
  • 【王树森推荐系统】行为序列01:用户历史行为序列建模
  • Java责任链模式实现方式与测试方法
  • Python爬虫实战:研究xlwt 和 xlrd 库相关技术
  • 【理念●体系】迁移复现篇:打造可复制、可复原的 AI 项目开发环境k
  • 笔试题库 | 亿纬锂能社招大易笔试测评题库考点分析及真题整理
  • 张量拼接操作
  • 【IT-Infra】从ITIL到CMDB,配置管理,资产管理,物理机与设备管理(含Infra系列说明)
  • QML与C++相互调用函数并获得返回值