14、导数与梯度直观 - 神经网络优化的数学基础
学习目标:建立导数作为变化率的几何直观理解,掌握偏导数和梯度向量的概念,深入理解链式法则的计算方法和几何意义,学会多元函数的导数计算和可视化,为神经网络反向传播算法的理解奠定坚实的微积分基础。
想象你正站在一座山顶,想要找到下山的最快路径。你环顾四周,发现不同方向的斜坡陡峭程度各不相同。向北可能是缓坡,向东可能是陡坡,而向东南方向可能是最陡峭的下坡路径。
这个"寻找最陡方向"的过程,正是梯度(Gradient)概念的生动写照。在深度学习中,神经网络就像一个复杂的多维地形,而梯度下降算法则像一个智能登山者,总是沿着最陡的下坡方向前进,最终找到"损失函数"这座山的最低点。
导数(Derivative) 是理解函数变化规律的数学工具,它告诉我们函数在某点附近如何变化。梯度则是导数概念在多维空间的推广,它不仅告诉我们函数如何变化,还指明了变化最剧烈的方向。
掌握导数和梯度的直观理解,你就掌握了神经网络"学习"过程的数学本质。
14.1 导数的几何直观:从斜率到变化率
> 导数的本质:瞬时变化率的精确测量
导数不是抽象的数学符号,而是对现实世界变化现象的精确描述。当我们说一个函数在某点的导数是3,意味着在这个位置,函数值正以每单位输入变化3个单位的速度增长。
在日常生活中,导数概念无处不在:</