【第六章:项目实战之推荐/广告系统】3.精排算法-(3)精排模块多目标融合:从线性融合到Bayes方程融合原理
第六章:项目实战之推荐/广告系统
第三部分:精排算法
第三节:精排模块多目标融合:从线性融合到Bayes方程融合原理
一、引言:精排不止有一个目标
推荐系统的“精排阶段”是整个推荐链路中最精细、最关键的环节。
在召回与粗排之后,系统面对的是有限数量的候选项,目标是利用高复杂度的模型(如 DNN、DeepFM、ESMM、MMoE、PLE 等)精确预测每个候选内容的用户响应概率,并排序展示。
然而,真实业务场景中目标往往不止一个:
电商:点击率(CTR)、加购率、转化率(CVR)、GMV(交易额);
视频:播放完成率、停留时长、点赞、关注;
信息流广告:CTR、CVR、广告收益(eCPM);
内容社区:互动率、用户留存、创作者曝光。
不同目标往往相互牵制(例如 CTR 高的内容未必有高 CVR)。
因此,**多目标融合(Multi-Objective Fusion)**成为精排阶段不可或缺的核心技术点之一。
二、多目标融合的本质
多目标融合的本质是:
在多个预测目标(如 CTR、CVR、留存率等)之间寻找最优的加权或联合决策方式,使得最终的排序指标最大化整体业务收益。
融合方式可以分为两大类:
结果层融合(Post-Fusion):模型分别输出 CTR、CVR、GMV 等预测,再通过公式进行融合;
模型层融合(Joint-Fusion):在模型结构中共享部分参数或隐空间(如 ESMM、MMoE、PLE)。
本节聚焦于结果层的融合策略,从最简单的线性融合到基于概率论的 Bayes 融合,系统地讲清楚背后的理论与工程逻辑。
三、线性融合:最简单也最常用的方式
线性融合(Linear Fusion)是业界最常见、实现最简便的融合方式,其核心思想是:
其中 () 为各目标的权重,表示目标在排序中的重要程度。
3.1 优点
简单直观,易实现;
可快速迭代与调参;
对模型无侵入,可直接在在线服务中实现。
3.2 缺点
权重选择主观;
各目标分布尺度不同(CTR≈0.1,CVR≈0.01),不归一化会导致失衡;
无法反映目标之间的条件依赖。
3.3 工程常用变体
归一化线性融合:
对各目标取z-score或min-max归一化后再加权;自适应融合(Learn-to-Fuse):
通过轻量神经网络或线性层学习最优权重,例如:score = torch.sigmoid(w1 * ctr + w2 * cvr + b)训练目标可以是 GMV、eCPM 或点击收益。
分场景加权:
不同用户群体、频道、时间段使用不同的 α/β 值,称为“动态融合权重”。
实践中,线性融合往往是系统上线的第一版本,随后再逐步过渡到概率融合或模型级融合。
四、非线性融合:从启发式到学习式
在一些复杂业务场景中(如电商广告),单纯的线性权重无法捕捉 CTR 与 CVR 的非线性关系。
例如:CTR 很高但 CVR 很低的广告会浪费曝光,而 CVR 很高但 CTR 极低的广告又难以被看到。
此时,需要非线性融合策略。
4.1 乘积式融合(Multiplicative Fusion)
经典的点击后转化率模型(CTCVR):
在广告排序中,eCPM 常用表达为:
该公式天然是乘法结构,体现了概率链式关系。
4.2 学习式融合(Learning Fusion)
使用一个轻量神经网络 (f_\theta) 来融合多个目标:
模型可以是:
DNN;
GBDT;
Logistic regression;
甚至基于强化学习的融合器。
这种方式能自动学习非线性权重,但需要额外训练数据与计算资源。
五、Bayes 融合:从概率论出发的理论最优解
Bayes 融合是融合理论中最系统、最有逻辑基础的方式。
5.1 理论基础
设:
(E):事件(用户点击、购买、转化等);
(X):特征向量;
(M_1, M_2, ...):不同目标模型输出。
我们的目标是计算最终排序得分:
根据 Bayes 定理:
若假设各模型独立(Naive Bayes 假设):
通过取对数变换:
这表明,融合的最优形式其实是多模型 log 概率的加权求和,与线性融合在形式上类似,但权重由数据概率决定。
5.2 在推荐系统中的具体应用
假设我们有 CTR 与 CVR 两个模型:
根据条件概率公式:
这正是业界广泛采用的 Bayes 乘积融合(CTCVR 模型)。
在广告系统中,这一融合策略用于计算最终的 eCPM = Bid × P(CTR) × P(CVR),即转化后收益的期望值。
六、从理论到实战:多目标融合的实现路径
在工程实现上,多目标融合通常出现在精排的最后一层或线上 Serving 阶段。
下面给出几种常见实践方案:
| 融合策略 | 核心公式 | 优点 | 典型应用场景 |
|---|---|---|---|
| 线性融合 | α·CTR + β·CVR | 简单快速、可解释 | 内容推荐 |
| 乘积融合 | CTR × CVR | 体现概率依赖 | 广告、eCPM |
| Log-Bayes 融合 | log P(E) + Σ log P(M_i | E) | 理论最优 |
| 学习式融合 | NN(CTR, CVR, GMV, …) | 自动学习非线性关系 | 大规模多目标排序 |
| 动态权重融合 | f(user, scene) → w | 场景自适应 | 个性化推荐 |
七、实战案例:电商广告中的多目标融合
假设广告系统有以下三个目标模型:
CTR 模型:点击概率;
CVR 模型:点击后购买概率;
ARPU 模型:用户平均收益。
系统可设计如下融合逻辑:
score = bid * ctr * cvr * arpu
或更一般地:
score = α * log(ctr) + β * log(cvr) + γ * log(arpu)
并通过 A/B 测试确定最优 α、β、γ 权重。
线上部署时可进一步将权重调整为实时动态函数,例如:
这样可以根据用户类型与时间段动态调整推荐重点(曝光、转化、复购)。
八、未来趋势:从静态融合到决策级优化
传统融合多为静态函数,但随着强化学习和多任务优化的发展,业界正向更智能化方向演进:
基于强化学习(RL)的融合:将排序得分视为策略输出,通过 reward 信号动态学习最优融合方式;
Meta-Learning 融合:融合模型根据场景快速自适应;
Uncertainty-Aware 融合:融合时考虑模型不确定性,置信区间高的目标赋予更高权重;
End-to-End 多任务联合优化:通过多目标损失函数同时优化 CTR、CVR、留存等,内在实现动态融合。
九、总结
| 阶段 | 主要思想 | 优点 | 适用场景 |
|---|---|---|---|
| 线性融合 | 人工加权求和 | 实现简单 | 快速上线、A/B 调参 |
| 非线性融合 | 学习式或乘积式 | 捕捉复杂关系 | 大规模推荐、广告 |
| Bayes 融合 | 概率论推导 | 理论最优 | CTR+CVR 联合建模 |
| 动态融合 | 权重自适应 | 个性化排序 | 实时推荐场景 |
多目标融合的演进,体现了推荐系统从经验加权向数据驱动决策的转变。
它让精排模块不再是单一目标优化器,而成为真正的综合收益最大化引擎。
一句话总结:
多目标融合的核心,不是简单地“相加”,而是让各个目标的概率在数学与业务逻辑上合理共存,让推荐系统在点击、转化与收益之间找到最优平衡点。
