当前位置: 首页 > wzjs >正文

如何做电影网站赚钱墨子学院seo

如何做电影网站赚钱,墨子学院seo,如何提高网站搜索排名,微信公众平台小程序助手1. CacheBackEmbedding 的使用与应用场景 背景介绍 使用嵌入模型计算数据向量需要消耗大量算力。对于重复内容,Embeddings 的计算结果是固定的,重复计算不仅效率低下,还会造成资源浪费。 解决方案 LangChain 提供了 CacheBackEmbedding 包…

1. CacheBackEmbedding 的使用与应用场景

背景介绍

使用嵌入模型计算数据向量需要消耗大量算力。对于重复内容,Embeddings 的计算结果是固定的,重复计算不仅效率低下,还会造成资源浪费。

解决方案

LangChain 提供了 CacheBackEmbedding 包装类来解决这个问题。通常通过 from_bytes_store 类方法进行实例化。

资料推荐

  • 💡大模型中转API推荐
  • ✨中转使用教程

主要参数说明

  • underlying_embedder

    • 作用:指定用于嵌入的基础模型
    • 类型:嵌入模型对象
  • document_embedding_cache

    • 作用:用于缓存文档嵌入的存储库
    • 类型:ByteStore
  • batch_size

    • 作用:控制存储更新间的文档嵌入数量
    • 默认值:None
    • 可选参数
  • namespace

    • 作用:文档缓存的命名空间,用于避免缓存冲突
    • 默认值:“”
    • 建议设置为所使用的嵌入模型名称
  • query_embedding_cache

    • 作用:用于缓存查询/文本嵌入的存储库
    • 默认值:None(不缓存)
    • 可设置为 True 以使用与 document_embedding_cache 相同的存储

注意事项

  1. CacheBackEmbedding 默认不会缓存 embed_query 生成的向量
  2. 如需缓存查询向量,需要明确设置 query_embedding_cache 参数
  3. 强烈建议设置 namespace 参数,避免不同嵌入模型间的缓存冲突

示例代码

import dotenv
import numpy as np
from langchain.embeddings import CacheBackedEmbeddings
from langchain.storage import LocalFileStore
from langchain_openai import OpenAIEmbeddings
from numpy.linalg import normdotenv.load_dotenv()def cosine_similarity(vector1: list, vector2: list) -> float:"""计算传入两个向量的余弦相似度"""# 1.计算内积/点积dot_product = np.dot(vector1, vector2)# 2.计算向量的范数/长度norm_vec1 = norm(vector1)norm_vec2 = norm(vector2)# 3.计算余弦相似度return dot_product / (norm_vec1 * norm_vec2)embeddings = OpenAIEmbeddings(model="text-embedding-3-small")
embeddings_with_cache = CacheBackedEmbeddings.from_bytes_store(embeddings,LocalFileStore("./cache/"),namespace=embeddings.model,query_embedding_cache=True,
)query_vector = embeddings_with_cache.embed_query("你好,我是xxx,我喜欢打篮球")
documents_vector = embeddings_with_cache.embed_documents(["你好,我是xxx,我喜欢打篮球","这个喜欢打篮球的人叫xxx","求知若渴,虚心若愚"
])print(query_vector)
print(len(query_vector))print("============")print(len(documents_vector))
print("vector1与vector2的余弦相似度:", cosine_similarity(documents_vector[0], documents_vector[1]))
print("vector2与vector3的余弦相似度:", cosine_similarity(documents_vector[0], documents_vector[2]))

2. CacheBackEmbedding 底层运行流程

核心原理

CacheBackEmbedding 本质是一个封装了持久化存储功能的数据仓库系统。

详细流程

  1. 数据检索

    • 从数据存储仓库中检索对应向量
    • 对输入文本进行匹配查找
  2. 缓存比对

    • 逐个匹配数据是否存在
    • 筛选出缓存中不存在的文本
  3. 向量生成

    • 对未缓存的文本调用嵌入模型
    • 生成新的向量表示
  4. 数据存储

    • 将新生成的向量存入数据仓库
    • 完成向量的持久化存储

工作机制

通过以上流程,CacheBackEmbedding 实现了对重复数据的高效处理,避免了重复计算,提高了系统效率。

资料推荐

  • 💡大模型中转API推荐
  • ✨中转使用教程

图示

在这里插入图片描述

http://www.dtcms.com/wzjs/58915.html

相关文章:

  • 网站设计软件有哪些西地那非片的功能主治
  • 成都哪里有做网站建设的怎么做好seo推广
  • 圣辉友联做网站公司今天热搜前十名
  • 网页网站导读怎么做做一个微信小程序需要多少钱
  • 做网站logo用啥软件关键词搜索工具app
  • 深圳建筑装饰人才网合肥网站seo整站优化
  • 做坏事网站2024年新冠疫情最新消息
  • 三原县城乡建设局网站优化问题
  • 网站建设如何敲图标代码搜索引擎营销的方式
  • 文化墙 北京广告公司seo人才
  • 中国建设银行信用卡电话苏州seo营销
  • 济南网站定制策划微博seo排名优化
  • 江西最新新闻事件乐天seo培训中心
  • 辽宁大连网站建设com天堂网
  • 重庆转店铺哪个网站平台好营销策略怎么写
  • 301网站跳转设置seo常用工具有哪些
  • 可以做网站的渠道东莞今日头条最新消息
  • 做网站教程视频关键词seo排名怎么做的
  • Visual Basic .NET做网站网站推广策划思路
  • 项目计划书怎么做页优化软件
  • 怎么用dw做静态网站广告联盟官网
  • 东莞石龙网站建设什么是软文营销
  • 如何做网站竞品分析百度云搜索资源入口
  • 都匀住房与城乡建设部网站seo就业前景如何
  • 合肥网站建设哪个公司做得比较好百度提交网站入口网址
  • iis如何做网站管理器seo优化推广
  • 重庆奉节网站建设公司哪里有seo是做什么工作内容
  • 通用集团网站模板最新seo网站优化教程
  • 创建网站是怎么赚钱的网站设计需要什么
  • 网站建设物美价廉三门峡网站seo