当前位置: 首页 > wzjs >正文

如何做电影网站赚钱可以免费领取会员的软件

如何做电影网站赚钱,可以免费领取会员的软件,免费网站源码模板下载,重庆网站建设公司下载1. CacheBackEmbedding 的使用与应用场景 背景介绍 使用嵌入模型计算数据向量需要消耗大量算力。对于重复内容,Embeddings 的计算结果是固定的,重复计算不仅效率低下,还会造成资源浪费。 解决方案 LangChain 提供了 CacheBackEmbedding 包…

1. CacheBackEmbedding 的使用与应用场景

背景介绍

使用嵌入模型计算数据向量需要消耗大量算力。对于重复内容,Embeddings 的计算结果是固定的,重复计算不仅效率低下,还会造成资源浪费。

解决方案

LangChain 提供了 CacheBackEmbedding 包装类来解决这个问题。通常通过 from_bytes_store 类方法进行实例化。

资料推荐

  • 💡大模型中转API推荐
  • ✨中转使用教程

主要参数说明

  • underlying_embedder

    • 作用:指定用于嵌入的基础模型
    • 类型:嵌入模型对象
  • document_embedding_cache

    • 作用:用于缓存文档嵌入的存储库
    • 类型:ByteStore
  • batch_size

    • 作用:控制存储更新间的文档嵌入数量
    • 默认值:None
    • 可选参数
  • namespace

    • 作用:文档缓存的命名空间,用于避免缓存冲突
    • 默认值:“”
    • 建议设置为所使用的嵌入模型名称
  • query_embedding_cache

    • 作用:用于缓存查询/文本嵌入的存储库
    • 默认值:None(不缓存)
    • 可设置为 True 以使用与 document_embedding_cache 相同的存储

注意事项

  1. CacheBackEmbedding 默认不会缓存 embed_query 生成的向量
  2. 如需缓存查询向量,需要明确设置 query_embedding_cache 参数
  3. 强烈建议设置 namespace 参数,避免不同嵌入模型间的缓存冲突

示例代码

import dotenv
import numpy as np
from langchain.embeddings import CacheBackedEmbeddings
from langchain.storage import LocalFileStore
from langchain_openai import OpenAIEmbeddings
from numpy.linalg import normdotenv.load_dotenv()def cosine_similarity(vector1: list, vector2: list) -> float:"""计算传入两个向量的余弦相似度"""# 1.计算内积/点积dot_product = np.dot(vector1, vector2)# 2.计算向量的范数/长度norm_vec1 = norm(vector1)norm_vec2 = norm(vector2)# 3.计算余弦相似度return dot_product / (norm_vec1 * norm_vec2)embeddings = OpenAIEmbeddings(model="text-embedding-3-small")
embeddings_with_cache = CacheBackedEmbeddings.from_bytes_store(embeddings,LocalFileStore("./cache/"),namespace=embeddings.model,query_embedding_cache=True,
)query_vector = embeddings_with_cache.embed_query("你好,我是xxx,我喜欢打篮球")
documents_vector = embeddings_with_cache.embed_documents(["你好,我是xxx,我喜欢打篮球","这个喜欢打篮球的人叫xxx","求知若渴,虚心若愚"
])print(query_vector)
print(len(query_vector))print("============")print(len(documents_vector))
print("vector1与vector2的余弦相似度:", cosine_similarity(documents_vector[0], documents_vector[1]))
print("vector2与vector3的余弦相似度:", cosine_similarity(documents_vector[0], documents_vector[2]))

2. CacheBackEmbedding 底层运行流程

核心原理

CacheBackEmbedding 本质是一个封装了持久化存储功能的数据仓库系统。

详细流程

  1. 数据检索

    • 从数据存储仓库中检索对应向量
    • 对输入文本进行匹配查找
  2. 缓存比对

    • 逐个匹配数据是否存在
    • 筛选出缓存中不存在的文本
  3. 向量生成

    • 对未缓存的文本调用嵌入模型
    • 生成新的向量表示
  4. 数据存储

    • 将新生成的向量存入数据仓库
    • 完成向量的持久化存储

工作机制

通过以上流程,CacheBackEmbedding 实现了对重复数据的高效处理,避免了重复计算,提高了系统效率。

资料推荐

  • 💡大模型中转API推荐
  • ✨中转使用教程

图示

在这里插入图片描述

http://www.dtcms.com/wzjs/473695.html

相关文章:

  • wordpress能批量上传图片么win7优化大师好不好
  • 政府网站平台建设标准软文网站平台
  • 怎么做视频解析的网站qq群引流推广平台
  • 凤阳县城乡建设局网站武汉疫情最新情况
  • 泉州工程建设招投标信息网快排seo
  • 陶瓷网站模板下载网站制作的基本流程
  • 腾讯网站建设竞价托管怎么做
  • 做的好的ppt下载网站上海排名优化seo
  • 曲靖今天最新通知seo的培训班
  • 微网站html5模板seo与sem的区别
  • 哈尔滨网站建设培训河南seo关键词排名优化
  • 做阿里渠道的销售要有哪些网站2021年网络营销案例
  • 网站制作哈尔滨百度竞价一个月5000够吗
  • 如何避免网站被攻击百度平台商家app下载
  • 做网站维护有什么要求推广普通话手抄报文字内容
  • 高端网站设计图片seo优化快速排名
  • wordpress充流量广州seo成功案例
  • 男女做羞羞事网站什么软件比百度搜索好
  • 四川省住房和城乡建设厅网站是多少百度品牌专区
  • 全国蔬莱网站建设网站搜索引擎优化方法
  • 常见的网站首页布局广东清远今天疫情实时动态防控
  • 晋江论坛匿名区熊猫seo实战培训
  • 做物流网站的图片素材宁波seo网络推广定制
  • 网络科技网站设计seo扣费系统
  • 网站建设内部风险分析广告推广营销网站
  • 帝国网站7.2 pc wap 跳转网站一级域名和二级域名
  • 文案做站内网站日常维护有哪些我的百度购物订单
  • 泉州建站模板搜索引擎的设计与实现
  • 教育网站制作论文百度在西安有分公司吗
  • 猪八戒网站是做啥的网站seo外包