当前位置: 首页 > news >正文

Learning To Rank

Neural Sort

  • Real-valued score : sss
  • Permutation : z∈Znz \in Z_nzZn
  • Sort : $R_n\rightarrow Z_n $
  • Permutation Matrix : Pz∈Rn×nP_z\in R^{n \times n}PzRn×n

Pz[i,j]={1if j=zi0otherwise\begin{equation} P_z[i,j] = \left\{ \begin{aligned} 1 & & if\space j = z_i \\ 0 & & otherwise \end{aligned} \right. \end{equation} Pz[i,j]={10if j=ziotherwise

  • As[i,j]=∣si−sj∣A_s[i,j] = |s_i - s_j|As[i,j]=sisj
  • KaTeX parse error: {equation} can be used only in display mode.
  • $\widehat{P}_{sort(s)}[i,:] = softmax[(n+1-2i)s - A_s\mathcal{1}] $
  • L(s;θ)=f(P^sort(s);θ)\mathcal{L}(s;\theta) = f(\widehat{P}_{sort(s)};\theta)L(s;θ)=f(Psort(s);θ)

极大似然估计损失函数:

  • L(s,z=[z1,z2,...,zn];θ)=f(P^sort(s),z=[z1,z2,...,zn])=−∑i=1nlog(P^sort(s)[i,zi])\mathcal{L}(s, z=[z_1,z_2,...,z_n];\theta) = f(\widehat{P}_{sort(s)}, z=[z_1,z_2,...,z_n]) = -\sum_{i=1}^n log(\widehat{P}_{sort(s)}[i, z_i])L(s,z=[z1,z2,...,zn];θ)=f(Psort(s),z=[z1,z2,...,zn])=i=1nlog(Psort(s)[i,zi])
  • 其中 zzz 为监督信号,例如用户的点击序列

Top K 最大化:

  • L(s,w=[w1,w2,...,wn];θ)=f(P^sort(s),w=[w1,w2,...,wn])=−P^sort(s)[1:K,:]⋅wT\mathcal{L}(s, w=[w_1,w_2,...,w_n];\theta) = f(\widehat{P}_{sort(s)}, w=[w_1,w_2,...,w_n]) = -\widehat{P}_{sort(s)}[1:K, :] \cdot w^TL(s,w=[w1,w2,...,wn];θ)=f(Psort(s),w=[w1,w2,...,wn])=Psort(s)[1:K,:]wT

ListNet

Ps(π)=∏j=1nϕ(sπj)∑i=jnϕ(sπi)P_s(\pi) = \prod_{j=1}^n\frac{\phi(s_{\pi_{j}})}{\sum_{i=j}^n\phi(s_{\pi_{i}})}Ps(π)=j=1ni=jnϕ(sπi)ϕ(sπj)
Ps(j)=∑π(1)=j,π∈ΩnPs(π)P_s(j) = \sum_{\pi(1) = j,\pi\in \Omega_n} P_s(\pi)Ps(j)=π(1)=j,πΩnPs(π)
Ps(j)=ϕ(sj)∑k=1nϕ(sk)P_s(j) = \frac{\phi(s_j)}{\sum_{k=1}^n\phi(s_k)}Ps(j)=k=1nϕ(sk)ϕ(sj)
L(y(i),z(i))=−∑j=1nPy(i)(j)log(Pz(i)(j))L(y^{(i)},z^{(i)}) = -\sum_{j=1}^nP_{y^{(i)}}(j)log(P_{z^{(i)}}(j))L(y(i),z(i))=j=1nPy(i)(j)log(Pz(i)(j))

PPD

  • p(z∣s)=sz1∑i=1nsi⋅sz2∑i=1nsi−sz1⋅...⋅szn−1szn−1+sznp(z|s)= \frac{s_{z_1}}{\sum_{i=1}^n s_i}\cdot\frac{s_{z_2}}{\sum_{i=1}^n s_i - s_{z_1}}\cdot...\cdot\frac{s_{z_{n-1}}}{s_{z_{n-1}} + s_{z_n}}p(zs)=i=1nsisz1i=1nsisz1sz2...szn1+sznszn1
  • L=−log(p(z∣s))\mathcal{L} = -log(p(z|s))L=log(p(zs))

BPR

LBPR:=lnP(Θ∣>u)\mathcal{L}_{BPR}:= lnP(\Theta|>_u)LBPR:=lnP(Θ∣>u)
=lnP(>u∣Θ)P(Θ)= lnP(>_u|\Theta)P(\Theta)=lnP(>u∣Θ)P(Θ)
=ln∏(u,i,j)∈Dsσ(x^uij)P(Θ)=ln\prod_{(u,i,j)\in D_s}\sigma(\hat{x}_{uij})P(\Theta)=ln(u,i,j)Dsσ(x^uij)P(Θ)
=∑(u,i,j)∈Dslnσ(x^uij)+lnP(Θ)=\sum_{(u,i,j)\in D_s}ln\sigma(\hat{x}_{uij}) + lnP(\Theta)=(u,i,j)Dsl(x^uij)+lnP(Θ)
=∑(u,i,j)∈Dslnσ(x^ui−x^uj)−λΘ∣∣Θ∣∣2=\sum_{(u,i,j)\in D_s}ln\sigma(\hat{x}_{ui} - \hat{x}_{uj}) -\lambda_{\Theta}||\Theta||^2=(u,i,j)Dsl(x^uix^uj)λΘ∣∣Θ∣2

RankNet

Pij:=P(yi>yj)=σ(f(di)−f(dj)),L=−∑ij[Tijlog(σ(Pij))+(1−Tijlog(1−σ(Pij)))]P_{ij}:=P(y_i>y_j) = \sigma(f(d_i) - f(d_j)),L = -\sum_{ij}[T_{ij}log(\sigma(P_{ij}))+(1-T_{ij}log(1-\sigma(P_{ij})))]Pij:=P(yi>yj)=σ(f(di)f(dj)),L=ij[Tijlog(σ(Pij))+(1Tijlog(1σ(Pij)))]

FRANK

L=1−(TijPij+(1−Tij)(1−Pij))L = 1 - (\sqrt{T_{ij}P_{ij}} + \sqrt{(1-T_{ij})(1-P_{ij})})L=1(TijPij+(1Tij)(1Pij))

http://www.dtcms.com/a/449441.html

相关文章:

  • 建模布线8
  • 第十六章:固本培元,守正出奇——Template Method的模板艺术
  • 网站开发管理学什么3建设营销型网站流程图
  • 【论文阅读】-《SparseFool: a few pixels make a big difference》
  • SLAM中的非线性优化-2D图优化之视觉惯性VIO(二十-终结篇)
  • 如何做自己的游戏网站介绍自己做的电影网站
  • Qt Creator配置git插件功能
  • 【大前端】Vue 和 React 的区别详解 —— 两大前端框架深度对比
  • 衡阳网站搜索引擎优化服务器维护要多久
  • 网站改版需要注意什么网站开发注册流程以及收费
  • 大模型开发 - 02 Spring AI Concepts
  • SpringAI指标监控
  • 在国内网络环境下高效配置与使用 Flutter
  • C++--二叉搜索树
  • dw网站怎么做点击图片放大潍坊建筑公司排名
  • 短视频素材网站免费大推荐淘宝seo 优化软件
  • 超声波图像乳腺癌识别分割数据集647张2类别
  • 【基于MQ的多任务分发体系】
  • DeploySharp开源发布:让C#部署深度学习模型更加简单
  • 网站开发专业就业指导可视化网站制作软件
  • 【MySQL】 SQL图形化界面工具DataGrip
  • PostgreSQL 安装与操作指南
  • iis怎么做网站cho菌主题wordpress
  • 网站大全软件下载淘宝搜索框去什么网站做
  • Python 编程语言介绍
  • 以太网接口
  • OpenHarmony(开源鸿蒙)小白入门教程
  • 光通信|OAM-偏振联合交叉连接
  • 广州建设工程质量安全网站网站数据库怎么备份
  • 【性能优化】帧率优化方法:第一步——量化