L
=
1
n
∑
i
=
1
n
(
y
i
−
y
^
i
)
2
L = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2
L=n1∑i=1n(yi−y^i)2
放大误差,对离群点敏感
标准线性回归
平均绝对误差(MAE)
L
=
1
n
∑
i
=
1
n
∣
y
i
−
y
^
i
∣
L = \frac{1}{n} \sum_{i=1}^{n} \vert y_i - \hat{y}_i\vert
L=n1∑i=1n∣yi−y^i∣
抗噪强,优化不稳定
离群点多的回归
Huber Loss
L
=
{
1
2
(
y
i
−
y
^
i
)
2
if
∣
y
i
−
y
^
i
∣
≤
δ
δ
∣
y
i
−
y
^
i
∣
−
1
2
δ
2
其他
L = \begin{cases} \frac{1}{2}(y_i - \hat{y}_i)^2 & \text{if } \vert y_i - \hat{y}_i\vert \leq \delta \\ \delta \vert y_i - \hat{y}_i\vert - \frac{1}{2}\delta^2 & \text{其他} \end{cases}
L={21(yi−y^i)2δ∣yi−y^i∣−21δ2if ∣yi−y^i∣≤δ其他
平衡 MAE 和 MSE
鲁棒回归任务
Log-Cosh Loss
L
=
∑
log
(
cosh
(
y
^
−
y
)
)
L = \sum \log(\cosh(\hat{y} - y))
L=∑log(cosh(y^−y))
平滑的 MAE
对离群点略鲁棒
2. 分类问题
损失函数
公式
特点
适用场景
交叉熵损失(Binary Cross Entropy)
L
=
−
1
n
∑
i
=
1
n
[
y
i
log
(
y
^
i
)
+
(
1
−
y
i
)
log
(
1
−
y
^
i
)
]
L = -\frac{1}{n} \sum_{i=1}^{n} \left[ y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right]
L=−n1∑i=1n[yilog(y^i)+(1−yi)log(1−y^i)]
二分类
逻辑回归、二分类神经网络
交叉熵损失(Categorical Cross Entropy)
L
=
−
1
n
∑
i
=
1
n
∑
j
=
1
k
y
i
j
log
(
y
^
i
j
)
L = -\frac{1}{n} \sum_{i=1}^{n} \sum_{j=1}^{k} y_{ij} \log(\hat{y}_{ij})
L=−n1∑i=1n∑j=1kyijlog(y^ij)