scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
【1】引言
前序学习进程中,学习了scikit-learn/sklearn学习|广义线性回归 Logistic regression的三种成本函数,这里先回过头来认识一下广义线性回归的损失函数。
【2】损失函数
广义线性回归的损失函数表达式为:minw12nsamples∑id(yi,yi^)+α2∣∣w∣∣2\min_{w}\frac{1}{2n_{samples}}\sum_{i}d(y_{i},\hat{y_{i}})+\frac{\alpha}{2}||w||^2wmin2nsamples1i∑d(yi,yi^)+2α∣∣w∣∣2
上式中,α\alphaα是大家熟悉的惩罚项强度
稍微陌生的却是前半部分偏差d(yi,yi^)d(y_{i},\hat{y_{i}})d(yi,yi^),它有多种表达形式,将是接下来一段时间的学习要点。
【3】总结
认识了广义线性回归损失函数的基本表达式。