《高等数学》(同济大学·第7版)第三章第五节“函数的极值与最大值最小值“
一、极值的基本概念
1. 极值的定义
- 极大值:若存在x₀的邻域,使得∀x∈U(x₀),有f(x)≤f(x₀)
- 极小值:若存在x₀的邻域,使得∀x∈U(x₀),有f(x)≥f(x₀)
- 极值点:使函数取得极值的点(包括x₀和f(x₀))
2. 极值的几何特征
- 极大值:局部"山峰"
- 极小值:局部"山谷"
- 注意:极值是局部概念,与全局最值不同
二、极值的判定方法
1. 必要条件(费马定理)
若f(x)在x₀处可导且取得极值,则f’(x₀)=0
- 几何解释:可导极值点处切线水平
- 注意事项:
- 导数不存在的点也可能取极值(如y=|x|在x=0)
- f’(x₀)=0的点不一定都是极值点(如y=x³在x=0)
2. 第一充分条件(导数变号法)
设f(x)在x₀处连续,在U˚(x₀)内可导:
- 当x从左到右经过x₀时:
- f’(x)由正变负 ⇒ x₀是极大值点
- f’(x)由负变正 ⇒ x₀是极小值点
- f’(x)不变号 ⇒ 不是极值点
例题1:求f(x)=x³-3x²的极值
解:
- f’(x)=3x²-6x=3x(x-2)
- 临界点:x=0,2
- 符号分析:
- x∈(-∞,0):f’(+)>0
- x∈(0,2):f’(-)<0 ⇒ x=0是极大值点
- x∈(2,+∞):f’(+)>0 ⇒ x=2是极小值点
- 极值:
- f(0)=0(极大值)
- f(2)=-4(极小值)
3. 第二充分条件(二阶导数法)
设f’(x₀)=0,f’'(x₀)存在:
- f’'(x₀)>0 ⇒ x₀是极小值点
- f’'(x₀)<0 ⇒ x₀是极大值点
- f’'(x₀)=0 ⇒ 无法判定,需用第一充分条件
例题2:用二阶导数法求f(x)=2x³-3x²的极值
解:
- f’(x)=6x²-6x ⇒ x=0,1
- f’'(x)=12x-6
- f’'(0)=-6<0 ⇒ x=0是极大值点
- f’'(1)=6>0 ⇒ x=1是极小值点
三、闭区间上函数的最大值与最小值
1. 求法步骤
- 找出f(x)在(a,b)内的所有临界点(f’(x)=0或不存在的点)
- 计算f(x)在临界点和端点处的函数值
- 比较上述值,最大的为最大值,最小的为最小值
2. 典型例题
例题3:求f(x)=x⁴-2x²+5在[-2,2]上的最值
解:
- f’(x)=4x³-4x=4x(x²-1) ⇒ x=-1,0,1
- 计算:
- f(-2)=13
- f(-1)=4
- f(0)=5
- f(1)=4
- f(2)=13
- 最大值:13(在x=±2处)
- 最小值:4(在x=±1处)
四、应用问题求解方法
1. 实际应用问题解题步骤
- 建立目标函数(将问题转化为函数表达式)
- 确定定义域
- 求极值和最值
- 验证结果的合理性
2. 经典例题
例题4:用长为l的铁丝围成矩形,求最大面积
解:
- 设边长x,则另一边=(l-2x)/2
- 面积函数:S(x)=x(l-2x)/2=lx/2-x²
- 定义域:x∈(0,l/2)
- S’(x)=l/2-2x ⇒ x=l/4
- 唯一极值点即为最大值点
- 最大面积:S(l/4)=l²/16
五、特殊情形处理
1. 不可导点的极值判定
如f(x)=|x|在x=0处:
- 左导数=-1,右导数=1
- 导数不存在,但x=0是极小值点
2. 高阶导数判别法
当f’(x₀)=f’'(x₀)=…=f⁽ⁿ⁻¹⁾(x₀)=0,f⁽ⁿ⁾(x₀)≠0时:
- n为偶数:
- f⁽ⁿ⁾(x₀)>0 ⇒ 极小值
- f⁽ⁿ⁾(x₀)<0 ⇒ 极大值
- n为奇数 ⇒ 不是极值点
六、常见错误与注意事项
错误类型 | 正确做法 |
---|---|
混淆极值与最值 | 极值是局部概念,最值是全局概念 |
忽略导数不存在的点 | 临界点包括f’(x)=0和不存在的点 |
二阶导数失效时不处理 | 当f’'(x₀)=0时改用第一充分条件 |
应用问题不考虑定义域 | 实际问题必须考虑变量的物理限制 |
这一节关于函数极值与最值的理论在AI和量化金融中有着深刻而实用的应用。让我们通过具体场景来解析这些数学工具如何解决实际问题:
一、在人工智能(AI)中的应用
1. 机器学习模型优化
核心应用:损失函数的最小化
- 问题类型:寻找使预测误差最小的模型参数θ
- 数学形式:min L(θ) = Σ(yᵢ - f(xᵢ;θ))²
- 求解方法:
- 梯度下降法:利用一阶导数信息
- 牛顿法:结合二阶导数信息(需Hessian矩阵正定)
典型案例:
- 线性回归的解析解:∇L(θ)=0 ⇒ θ=(XᵀX)⁻¹Xᵀy
- 神经网络中的反向传播:链式法则计算梯度
2. 超参数调优
- 网格搜索:在定义域内寻找使验证集误差最小的超参数组合
- 贝叶斯优化:构建代理函数寻找全局极值
3. 生成对抗网络(GAN)
- 判别器D和生成器G的极小极大博弈:
min_G max_D V(D,G) = E[logD(x)] + E[log(1-D(G(z)))] - 需保证纳什均衡点的存在性
二、在量化金融中的应用
1. 投资组合优化
马科维茨均值-方差模型:
- 目标函数:在给定收益下最小化风险
min wᵀΣw
s.t. wᵀμ = rₚ, wᵀ1 = 1 - 求解关键:拉格朗日乘数法找极值
2. 期权定价
- Delta对冲:通过导数信息管理风险
Δ = ∂C/∂S (期权价格对标的资产价格的敏感度) - 隐含波动率计算:求解使模型价格=市场价格的σ
min |BSM(S,K,T,r,σ) - Cₘᵢₖₜ|
3. 高频交易策略
- 订单簿优化:寻找使执行成本最小的下单策略
min ∫₀ᵀ [x(t)ᵀΛx(t) + κ·x’(t)²] dt
(Λ为流动性矩阵,κ为风险厌恶系数)
三、交叉领域应用案例
案例1:强化学习中的策略梯度
- 目标:最大化期望回报 J(θ) = E[Σγᵗrₜ|πθ]
- 策略梯度定理:
∇J(θ) = E[∇logπ(a|s;θ)·Qπ(s,a)] - 需保证策略函数π(a|s)的梯度存在
案例2:风险平价组合
- 优化目标:使各资产风险贡献相等
min Σ(RCᵢ - RCⱼ)²
(RCᵢ = wᵢ·(Σw)ᵢ/√wᵀΣw)
案例3:深度学习模型剪枝
- 构建优化问题:
min ‖W⊙M‖₁
s.t. accuracy(f(x;W⊙M)) ≥ threshold
(M为二进制掩码矩阵)
四、数学工具与代码实现对应表
数学概念 | AI/量化应用场景 | 典型代码实现 |
---|---|---|
一阶导数 | 梯度下降 | torch.autograd.grad() |
二阶导数 | 牛顿法优化 | scipy.optimize.minimize(method='trust-ncg') |
拉格朗日乘数法 | 带约束的投资组合优化 | cvxpy 库中的约束优化 |
全局最优搜索 | 超参数调优 | optuna.suggest_float() |
Hessian矩阵 | 二阶优化算法 | torch.autograd.functional.hessian() |
五、前沿发展方向
-
非凸优化:
- 深度学习损失函数的非凸性研究
- 使用随机梯度下降逃离局部极小值
-
对抗鲁棒性:
min_θ max_‖δ‖≤ε L(f(x+δ;θ), y) -
量子优化算法:
- 量子退火解决组合优化问题
- 在投资组合优化中的应用
需要我进一步展开某个具体应用场景的数学推导或代码实现细节吗?例如您可能想了解:
- 梯度下降法中学习率与收敛性的关系
- 期权希腊字母(Greeks)的极值分析
- 神经网络损失函数的鞍点问题