当前位置: 首页 > news >正文

【大模型记忆-Mem0详解-3】安装和设置

安装选项概述

Mem0 提供了两种不同的部署路径,具有不同的安装要求和设置过程:

在这里插入图片描述

包安装

两个部署路径都使用相同的核心包,但需要不同的配置方法。

Python 安装

pip install mem0ai

JavaScript/TypeScript 安装

npm install mem0ai

该包为平台与开源使用提供了不同的导入路径:

使用类型Python 导入JavaScript 导入
平台from mem0 import MemoryClientimport MemoryClient from ‘mem0ai’
开源from mem0 import Memoryimport { Memory } from ‘mem0ai/oss’

托管平台设置

托管平台只需要一个 API 密钥,并使用 MemoryClientAsyncMemoryClient 类。

API 密钥配置

  1. 在 Mem0 平台注册
  2. 导航到仪表板中的 API 密钥部分
  3. 复制您的 API 密钥

环境设置

import os
from mem0 import MemoryClientos.environ["MEM0_API_KEY"] = "your-api-key"
client = MemoryClient()
import MemoryClient from 'mem0ai';
const client = new MemoryClient({ apiKey: 'your-api-key' });

开源设置

开源部署使用 Memory 类,需要配置 LLM 和嵌入提供程序。

基本内存配置

from mem0 import Memory# Default configuration (uses OpenAI)
m = Memory()# Custom configuration
config = {"llm": {"provider": "anthropic","config": {"model": "claude-sonnet-4-20250514","temperature": 0.1,"max_tokens": 2000,}}
}
m = Memory.from_config(config)
import { Memory } from 'mem0ai/oss';// Default configuration
const memory = new Memory();// Custom configuration
const config = {llm: {provider: 'anthropic',config: {apiKey: process.env.ANTHROPIC_API_KEY || '',model: 'claude-sonnet-4-20250514',temperature: 0.1,maxTokens: 2000,},},
};
const memory = new Memory(config);

提供程序配置架构

在这里插入图片描述

环境变量和 API 密钥

不同的提供程序需要配置特定的环境变量。

按提供程序划分的必需环境变量

供应商环境变量描述
开放人工智能OPENAI_API_KEY用于 LLM 和嵌入模型
人为的ANTHROPIC_API_KEYClaude 模型访问
熟练GROQ_API_KEYGroq LPU 推理
AWS 基岩AWS_REGION、AWS_ACCESS_KEY_ID、AWS_SECRET_ACCESS_KEY AWS身份验证
米斯特拉尔MISTRAL_API_KEYMistral AI 模型
一起TOGETHER_API_KEY共同 AI 模型

通用环境设置

import os# For open source with OpenAI (most common)
os.environ["OPENAI_API_KEY"] = "your-openai-key"# For anthropic LLM + OpenAI embeddings
os.environ["OPENAI_API_KEY"] = "your-openai-key"  # for embeddings
os.environ["ANTHROPIC_API_KEY"] = "your-anthropic-key"  # for LLM# For AWS Bedrock
os.environ["AWS_REGION"] = "us-west-2"
os.environ["AWS_ACCESS_KEY_ID"] = "your-access-key"
os.environ["AWS_SECRET_ACCESS_KEY"] = "your-secret-key"

配置示例

Anthropic Claude 与 OpenAI 嵌入

config = {"llm": {"provider": "anthropic","config": {"model": "claude-sonnet-4-20250514","temperature": 0.1,"max_tokens": 2000,}}# embeddings default to OpenAI if OPENAI_API_KEY is set
}

使用 Ollama 进行本地设置

config = {"llm": {"provider": "ollama","config": {"model": "mixtral:8x7b","temperature": 0.1,"max_tokens": 2000,}}
}

AWS 基岩配置

config = {"llm": {"provider": "aws_bedrock","config": {"model": "anthropic.claude-3-5-haiku-20241022-v1:0","temperature": 0.2,"max_tokens": 2000,}}
}

安装验证

平台验证

使用简单的内存作测试平台连接:

from mem0 import MemoryClient
import osos.environ["MEM0_API_KEY"] = "your-api-key"
client = MemoryClient()# Test adding a memory
messages = [{"role": "user", "content": "I like coffee in the morning"},{"role": "assistant", "content": "I'll remember your coffee preference"}
]
result = client.add(messages, user_id="test_user")
print("Platform connection successful:", result)

开源验证

使用基本内存作测试开源设置:


from mem0 import Memory
import osos.environ["OPENAI_API_KEY"] = "your-openai-key"
m = Memory()# Test adding a memory
messages = [{"role": "user", "content": "I like coffee in the morning"}
]
result = m.add(messages, user_id="test_user")
print("Open source setup successful:", result)# Test searching memories
search_result = m.search("coffee preferences", user_id="test_user")
print("Search results:", search_result)

TypeScript/JavaScript 设置

JavaScript SDK 遵循类似的模式,用于基于 promise 的异步作:

平台设置

import MemoryClient from 'mem0ai';const client = new MemoryClient({ apiKey: 'your-api-key' });const messages = [{"role": "user", "content": "I like coffee in the morning"},{"role": "assistant", "content": "I'll remember that"}
];client.add(messages, { user_id: "test_user" }).then(response => console.log(response)).catch(error => console.error(error));

开源设置

import { Memory } from 'mem0ai/oss';const memory = new Memory();const messages = [{role: "user", content: "I like coffee in the morning"}
];const result = await memory.add(messages, { userId: "test_user", metadata: { category: "preferences" } 
});

后续步骤

安装验证成功后:

  • 对于平台用户: 浏览 REST API 参考和 MemoryClient 文档
  • 对于开源用户: 查看内存类文档和配置选项
  • 对于集成 :请参阅框架集成以连接 AI 框架
  • 对于高级功能: 探索图形内存和高级检索
http://www.dtcms.com/a/362064.html

相关文章:

  • 35.序列(中)
  • 在Linux系统中安装Jenkins(保姆级别)
  • Linux 下 MySQL 数据库定时备份脚本与 Crontab 配置
  • 在本地使用 Docker 创建一个易受攻击的云环境
  • Day23 机器学习流水线(管道/pipeline)
  • Windows系统安装Git详细教程
  • c# winform 拼图游戏
  • 随机获取集合里面的某一条数据
  • 利用Mybatis自定义排序规则实现复杂排序
  • UBUNTU之Onvif开源服务器onvif_srvd:1、编译
  • Java synchronized 关键字详解
  • JAVA后端开发——forEach 与方法引用(::)详解
  • 剧想智读项目展示
  • 针对redis中的热数据该怎么处理
  • Qt 项目文件(.pro)中添加 UI 文件相关命令
  • 【系规伴学】云资源规划核心知识点解析
  • vcruntime140.dll丢失解决办法
  • pandas自学笔记16 pandas可视化
  • 继承体系中的隐藏机制解析(继承中的作用域)
  • Unity图集 SpriteAltas 打包探究
  • [界面通过zmq请求调用指定动态库函数(三)]将zmq请求集成二次开发接口
  • Android 文件下载 FileDownloader
  • TypeScript交叉类型、重复属性、类型断言和as const详解
  • 光颉科技)Viking)的CS25FTFR009 1225 0.009R/9mR 3W电阻介绍-华年商城
  • 【笔记】float类型的精度有限,无法精确表示123456.6789
  • 【Audio】静音或振动模式下重复来电响铃
  • Java Web项目后台管理系统之内容管理仿写(三):图片上传
  • 使用 BayesFlow 通过神经网络简化贝叶斯推断(一)
  • C扩展4:X宏(X-MACRO)
  • JS循环机制