当前位置: 首页 > news >正文

langchain调用本地ollama语言模型和嵌入模型

参考:ollama兼容OpenAIEmbeddings的解决思路

解决代码:

访问embedding模型代码

# 测试以下两个引用都可以
from langchain_openai import OpenAIEmbeddings
#from langchain_community.embeddings import OpenAIEmbeddings 
from typing import List, Optionalclass OllamaCompatibleEmbeddings(OpenAIEmbeddings):def _tokenize(self, texts: List[str], chunk_size: int) -> tuple:"""禁用 Tokenization,直接返回原始文本和索引"""indices = list(range(len(texts)))return (range(0, len(texts), chunk_size), texts, indices)def _get_len_safe_embeddings(self, texts: List[str], *, engine: str, chunk_size: Optional[int] = None) -> List[List[float]]:"""直接传递原始文本,跳过 Token 化步骤"""_chunk_size = chunk_size or self.chunk_sizebatched_embeddings: List[List[float]] = []# 直接遍历原始文本分块for i in range(0, len(texts), _chunk_size):chunk = texts[i: i + _chunk_size]# 关键修改:input 直接使用文本列表response = self.client.create(input=chunk,  # 直接使用原始文本列表model=self.model,  # 显式传递模型参数**{k: v for k, v in self._invocation_params.items() if k != "model"})if not isinstance(response, dict):response = response.model_dump()batched_embeddings.extend(r["embedding"] for r in response["data"])# 跳过空文本处理(Ollama 不需要)return batched_embeddingsasync def _aget_len_safe_embeddings(self, texts: List[str], *, engine: str, chunk_size: Optional[int] = None) -> List[List[float]]:"""异步版本处理逻辑"""_chunk_size = chunk_size or self.chunk_sizebatched_embeddings: List[List[float]] = []for i in range(0, len(texts), _chunk_size):chunk = texts[i: i + _chunk_size]response = await self.async_client.create(input=chunk,model=self.model,**{k: v for k, v in self._invocation_params.items() if k != "model"})if not isinstance(response, dict):response = response.model_dump()batched_embeddings.extend(r["embedding"] for r in response["data"])  # 注意: 实际应为 "embedding"return batched_embeddingsembeddings = OllamaCompatibleEmbeddings(model="bge-m3:latest",openai_api_base='http://localhost:11434/v1',#说明一下,openai会自己拼接成http://127.0.0.1:11434/v1/embeddingsapi_key="ollama",# 任意字符串即可chunk_size=512)
output = embeddings.embed_query("你好")   
print(output)

访问LLM模型代码

from langchain_openai import ChatOpenAI
from langchain.schema import HumanMessage# 配置ChatOpenAI类指向本地Ollama API
llm = ChatOpenAI(model_name="deepseek-r1:1.5b",  # 指定Ollama部署的模型名称openai_api_base="http://localhost:11434/v1",  # Ollama API地址api_key="ollama",  # 任意字符串,仅用于兼容格式temperature=0.7,  # 控制输出随机性,0为确定性,1为最大随机性max_tokens=2000,  # 最大生成长度
)# 定义提问函数
def ask_llm(question: str) -> str:"""向本地DeepSeek-R1模型提问并获取回答"""# 创建HumanMessage对象messages = [HumanMessage(content=question)]# 调用模型生成回答response = llm.invoke(messages)# 提取回答内容return response.content# 测试示例
if __name__ == "__main__":question = "请简要介绍量子计算的基本原理"answer = ask_llm(question)print(f"问题: {question}")print("\n回答:")print(answer)

http://www.dtcms.com/a/289121.html

相关文章:

  • 梯度提升之原理
  • COGNEX康耐视IS5403-01智能相机加Navitar 18R00 LR1010WM52镜头
  • React 英语打地鼠游戏——一个寓教于乐的英语学习游戏
  • [Windows] Bili视频转图文笔记 v1.7.5
  • 网鼎杯2020青龙组notes复现
  • 7. 命令模式
  • Modbus Slave 使用教程:快速搭建模拟从站进行测试与开发
  • Ribbon轮询实现原理
  • Unity笔记——Unity 封装方法指南
  • day24——Java高级技术深度解析:单元测试、反射、注解与动态代理
  • [Python] -项目实战类3- 用Python制作一个记事本应用
  • CVE-2022-41128
  • Python数据处理库与语法总结
  • API获取及调用(以豆包为例实现图像分析)
  • FreeRTOS任务创建与删除
  • 掌握配置文件(三):运用Profile实现多环境配置隔离
  • 三级知识点汇总(详解)【c++】——3
  • 让不符合要求的任何电脑升级Windows11
  • 《通信原理》学习笔记——第五章
  • 开源安全大模型Foundation-Sec 8B的安全实践
  • 分享如何在保证画质的前提下缩小视频体积实用方案
  • 【记某次线上消息积压问题排查及解决方案】
  • 基于Pytorch的人脸识别程序
  • 基于FPGA实现ARINC818
  • Milvus Dify 学习笔记
  • Unity学习笔记(五)——3DRPG游戏(2)
  • DFS 迷宫问题 难度:★★★★☆
  • Python适配器模式详解:让不兼容的接口协同工作
  • CSS中Padding与Margin的区别
  • 机器学习-线性回归