Day20_【机器学习—逻辑回归 (1)—原理】
一、逻辑回归原理
逻辑回归是一种分类模型 ,要用于解决经典二分类的问题
其把线性回归的输出作为逻辑回归的输入:
- 1.利用线性模型 f(x) = w^Tx + b 根据特征的重要性计算出一个值
- 2.再使用 sigmoid 函数将 f(x) 的输出值映射到[0,1]之间的值,也就是概率值
- 1.设置阈值(eg:0.6),输出概率值大于 0.6,则将未知样本输出为 1 类
- 2.否则输出为 0 类
二、signmoid函数(激活函数) (s型函数)
数学公式:
图像:
- x轴 特征值
- y轴 标签值
- 拐点(0,0.5)
作用:把数值映射到[0,1]
- 用来控制逻辑输出的结果的范围是[0,1],将值转换为[0,1],
- 也就是由回归问题转换到分类问题,增加了模型的非线性因素
三、逻辑回归的假设函数
还可以写成
四、逻辑回归的损失函数
五、逻辑回归的API
sklearn.linear_model.LogisticRegression(solver='liblinear', penalty=‘l2’, C = 1.0)
- 参数
- solver 损失函数优化方法
- 1 liblinear 对小数据集场景训练速度更快,sag 和 saga 对大数据集更快一些。
- 2 正则化
- 1 sag、saga 支持 L2 正则化或者没有正则化
- 2 liblinear 和 saga 支持 L1 正则化
- penalty:正则化的种类,l1 或者 l2
- C:正则化力度
- 损失函数 与 正则化 结合的作用:在拟合的同时 防止过拟合
- solver 损失函数优化方法