当前位置: 首页 > news >正文

推荐系统学习笔记(八)其他召回通道

本节介绍几个有用但重要性不高的召回通道

1. 几种简单召回通道

召回通道原理索引召回
GeoHash召回用户可能对附近的事感兴趣,对用户的经纬度的编码GeoHash→优质笔记列表(按时间倒排)无个性化召回(所以选择推荐优质笔记)
同城召回用户可能对同城的事感兴趣城市→优质笔记列表(按时间倒排)无个性化召回
作者召回用户可能对关注的作者发布的笔记感兴趣用户→关注的作者
作者→发布的笔记(按时间倒排)
用户→关注的作者→最新的笔记
有交互的作者召回用户对某篇笔记感兴趣,对该作者的其他笔记也可能感兴趣用户→有交互的作者(按时间倒排)用户→有交互的作者→最新的笔记
相似作者召回如果用户喜欢某作者,那么用户喜欢相似的作者(类似ItemCF)
作者→相似作者(k个)(按时间倒排)
用户→感兴趣的作者(n)→相似作者(nk)→最新的笔记(nk)

2. 缓存召回

💭核心思想:复用前n次推荐精排的结果

背景:精排的结果有一大半未曝光,被浪费

操作:精排前50,但是未曝光的,缓存起来,作为一条召回通道

⚠️ 缓存大小固定,需要退场机制

  • 一旦笔记成功曝光,就从缓存退场;
  • 如果超过缓存大小,就移除最先进入缓存的笔记;
  • 笔记最多被召回若干次,达到这个次数就退场;
  • 每篇笔记最多保存若干天,达到这个天数就退场;
  • 想让低曝光笔记缓存更长时间,基于曝光次数设置退场规则。
http://www.dtcms.com/a/313589.html

相关文章:

  • ssh服务器端口和本地端口映射
  • 基于Python 批量导入实体与关系到 Neo4j 数据库的完整实践
  • jconsole与jvisualvm监控
  • 数据结构基础 - 平衡二叉树
  • async/await和Promise之间的关系是什么?(补充)
  • NSA稀疏注意力深度解析:DeepSeek如何将Transformer复杂度从O(N²)降至线性,实现9倍训练加速
  • 能表示旋转的矩阵是一个流形吗?
  • 【大模型篇】:GPT-Llama-Qwen-Deepseek
  • 数据结构重点内容
  • Go语言实战案例:多协程并发下载网页内容
  • 《 ThreadLocal 工作机制深度解析:高并发场景的利与弊》
  • Mysql深入学习:InnoDB执行引擎篇
  • C++ : 反向迭代器的模拟实现
  • 【图像处理基石】如何使用deepseek进行图像质量的分析?
  • vllm0.8.5:思维链(Chain-of-Thought, CoT)微调模型的输出结果包括</think>,提供一种关闭思考过程的方法
  • MCP协议:CAD地图应用的AI智能化解决方案(唯杰地图MCP)
  • 【数据结构与算法】数据结构初阶:排序内容加餐(二)——文件归并排序思路详解(附代码实现)
  • 【C++】面向对象编程
  • C语言(长期更新)第8讲 函数递归
  • 网络通信与Socket套接字详解
  • C#模式匹配用法与总结
  • 网页 URL 转 Markdown API 接口
  • 大模型中的Token和Tokenizer:核心概念解析
  • 【Unity3D实例-功能-镜头】俯视角
  • MySQL极简安装挑战
  • 数据结构代码
  • IO流-数据流
  • 语义分割--deeplabV3+
  • 企业级AI Agent构建实践:从理论到落地的完整指南
  • 机器学习中的经典算法