逻辑回归与神经网络:本质联系与核心区别
文章目录
-
- 1. 从逻辑回归出发:机器学习的基础构建块
-
- 1.1 核心机制:线性变换与非线性激活
- 1.2 决策边界与局限性
- 2. 神经网络:从“原子”到“网络”的进化
-
- 2.1 基本构建单元:神经元
- 2.2 从单层到多层:解决非线性问题的关键
- 3. 训练过程的对比:共同的数学基础
-
- 3.1 损失函数的设计
- 3.2 参数优化:梯度下降与反向传播
- 4. 本质联系:神经网络的“原子”单位
- 5. 实际应用中的选择考量
-
- 5.1 逻辑回归的适用场景
- 5.2 神经网络的适用场景
- 结论:理解深度学习的“第一性原理”
1. 从逻辑回归出发:机器学习的基础构建块
逻辑回归作为机器学习中最经典的算法之一,表面上是解决二分类问题的利器,实则揭示了神经网络的基本工作原理。逻辑回归的目标是解决二元分类问题,例如根据肿瘤大小判断恶性良性,或根据邮件内容判断是否为垃圾邮件。
1.1 核心机制:线性变换与非线性激活
逻辑回归的核心处理流程分为两个关键步骤:
- 线性加权求和:接收输入特征 x 1 , x 2 , . . . , x n x_1, x_2, ..., x_n x1,x2,...,xn,计算 z = w 1 x 1 + w 2 x 2 + . . . + b z = w_1x_1 + w_2x_2 + ... + b z=w1x1+w2x2