当前位置: 首页 > news >正文

机器学习、深度学习、信号处理领域常用公式速查表

机器学习、深度学习、信号处理领域常用公式速查表

一、机器学习领域核心公式

覆盖分类、回归、聚类、概率模型、优化算法等主流任务,聚焦模型原理与评估核心公式。

1. 数据与特征相关公式

公式名称公式英文全称中文解释应用场景
特征矩阵维度表示X∈Rn×dX \in \mathbb{R}^{n \times d}XRn×dFeature Matrix Dimension特征矩阵XXXnnnddd列,nnn为样本数,ddd为特征维度所有机器学习任务中数据的矩阵表示
样本均值xˉ=1n∑i=1nxi\bar{x} = \frac{1}{n} \sum_{i=1}^n x_ixˉ=n1i=1nxiSample Mean单个特征的样本均值,反映数据中心趋势数据预处理(归一化、标准化)
样本方差σ2=1n−1∑i=1n(xi−xˉ)2\sigma^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2σ2=n11i=1n(xixˉ)2Sample Variance单个特征的样本方差,反映数据离散程度数据分布分析、特征重要性评估
标准化(Z-Score)xstd=x−xˉσx_{std} = \frac{x - \bar{x}}{\sigma}xstd=σxxˉStandardization将特征缩放到均值为0、方差为1的分布线性模型(LR、SVM)、神经网络输入预处理
归一化(Min-Max)xnorm=x−xminxmax−xminx_{norm} = \frac{x - x_{min}}{x_{max} - x_{min}}xnorm=xmaxxminxxminMin-Max Normalization将特征缩放到[0,1]区间对输入范围敏感的模型(如神经网络、K-Means)
特征映射(核函数示例)K(xi,xj)=exp⁡(−∣xi−xj∣22σ2)K(x_i, x_j) = \exp\left(-\frac{|x_i - x_j|^2}{2\sigma^2}\right)K(xi,xj)=exp(2σ2xixj2)Gaussian Kernel Function高斯核函数,将原始特征映射到高维空间SVM、核方法中的非线性特征转换

2. 分类任务核心公式

公式名称公式英文全称中文解释应用场景
逻辑回归预测函数y^=σ(wTx+b)=11+e−(wTx+b)\hat{y} = \sigma(w^T x + b) = \frac{1}{1 + e^{-(w^T x + b)}}y^=σ(wTx+b)=1+e(wTx+b)1Logistic Regression Predict Function二分类预测函数,Sigmoid函数将线性输出映射到(0,1)二分类任务(如垃圾邮件检测、疾病诊断)
交叉熵损失(二分类)L=−1n∑i=1n[yilog⁡y^i+(1−yi)log⁡(1−y^i)]L = -\frac{1}{n} \sum_{i=1}^n [y_i \log \hat{y}_i + (1 - y_i) \log (1 - \hat{y}_i)]L=n1i=1n[yilogy^i+(1yi)log(1y^i)]Binary Cross-Entropy Loss衡量二分类预测概率与真实标签的差异逻辑回归、二分类神经网络的损失函数
交叉熵损失(多分类)L=−1n∑i=1n∑c=1Cyiclog⁡y^icL = -\frac{1}{n} \sum_{i=1}^n \sum_{c=1}^C y_{ic} \log \hat{y}_{ic}L=n1i=1nc=1Cyiclogy^icCategorical Cross-Entropy Loss衡量多分类预测概率分布与真实分布的差异多分类任务(如图像分类)的损失函数
准确率Accuracy=TP+TNTP+TN+FP+FNAccuracy = \frac{TP + TN}{TP + TN + FP + FN}Accuracy=TP+TN+FP+FNTP+TNAccuracy Score所有预测正确样本占总样本的比例类别分布均衡的分类任务评估
精确率Precision=TPTP+FPPrecision = \frac{TP}{TP + FP}Precision=TP+FPTPPrecision Score预测为正类中实际正类的比例需降低“误判正类”场景(如欺诈检测)
召回率Recall=TPTP+FNRecall = \frac{TP}{TP + FN}Recall=TP+FNTPRecall Score实际正类中被预测正类的比例需降低“漏判正类”场景(如癌症筛查)
F1-ScoreF1=2×Precision×RecallPrecision+RecallF1 = 2 \times \frac{Precision \times Recall}{Precision + Recall}F1=2×Precision+RecallPrecision×RecallF1-Score精确率与召回率的调和平均,平衡两者类别不平衡的分类任务评估
ROC曲线横轴(FPR)FPR=FPTN+FPFPR = \frac{FP}{TN + FP}FPR=TN+FPFPFalse Positive Rate假正率,实际负类中被预测正类的比例ROC曲线绘制、模型泛化能力评估
ROC曲线纵轴(TPR)TPR=Recall=TPTP+FNTPR = Recall = \frac{TP}{TP + FN}TPR=Recall=TP+FNTPTrue Positive Rate真正率,即召回率,实际正类中被预测正类的比例ROC曲线绘制、AUC计算

3. 回归任务核心公式

公式名称公式英文全称中文解释应用场景
线性回归预测函数y^=wTx+b\hat{y} = w^T x + by^=wTx+bLinear Regression Predict Function线性模型预测函数,输出连续值简单线性回归(如房价预测、销量预测)
均方误差(MSE)MSE=1n∑i=1n(yi−y^i)2MSE = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2MSE=n1i=1n(yiy^i)2Mean Squared Error预测值与真实值的平方误差均值回归任务损失函数、模型评估
均方根误差(RMSE)RMSE=1n∑i=1n(yi−y^i)2RMSE = \sqrt{\frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2}RMSE=n1i=1n(yiy^i)2Root Mean Squared ErrorMSE的平方根,与原始数据单位一致回归任务评估,直观反映实际偏差大小
平均绝对误差(MAE)MAE=1n∑i=1n∣yi−y^i∣MAE = \frac{1}{n} \sum_{i=1}^n |y_i - \hat{y}_i|MAE=n1i=1nyiy^iMean Absolute Error预测值与真实值的绝对误差均值对异常值鲁棒的回归任务评估
决定系数(R²)R2=1−∑i=1n(yi−y^i)2∑i=1n(yi−yˉ)2R^2 = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}_i)^2}{\sum_{i=1}^n (y_i - \bar{y})^2}R2=1i=1n(yiyˉ)2i=1n(yiy^i)2Coefficient of Determination模型可解释方差占总方差的比例,衡量拟合效果回归任务模型解释力评估,取值[0,1]
L1正则化项RL1(θ)=∣∣θ∣∣1=∑i=1d∣wi∣R_{L1}(\theta) = || \theta ||_1 = \sum_{i=1}^d |w_i|RL1(θ)=∣∣θ1=i=1dwiL1 Regularization TermL1正则化(Lasso),使部分权重为0,实现特征选择线性回归、逻辑回归的正则化,防止过拟合
L2正则化项RL2(θ)=∣∣θ∣∣22=∑i=1dwi2R_{L2}(\theta) = || \theta ||_2^2 = \sum_{i=1}^d w_i^2RL2(θ)=∣∣θ22=i=1dwi2L2 Regularization TermL2正则化(Ridge),使权重趋于较小值线性模型、神经网络的正则化,防止过拟合

4. 聚类与概率模型公式

公式名称公式英文全称中文解释应用场景
K-Means目标函数J=∑k=1K∑xi∈Ck∣xi−μk∣2J = \sum_{k=1}^K \sum_{x_i \in C_k} |x_i - \mu_k|^2J=k=1KxiCkxiμk2K-Means Objective Function所有样本到其所属聚类中心的欧氏距离平方和K-Means聚类算法的优化目标
高斯分布概率密度p(x∣μ,σ2)=12πσexp⁡(−(x−μ)22σ2)p(x \mid \mu, \sigma^2) = \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right)p(xμ,σ2)=2πσ1exp(2σ2(xμ)2)Gaussian Probability Density Function单变量正态分布的概率密度,描述连续数据分布高斯混合模型、异常检测、概率统计分析
贝叶斯定理p(θ∣D)=p(D∣θ)p(θ)p(D)p(\theta \mid D) = \frac{p(D \mid \theta) p(\theta)}{p(D)}p(θD)=p(D)p(Dθ)p(θ)Bayes’ Theorem后验分布 = 似然×先验 / 证据,实现参数推断贝叶斯模型(如贝叶斯回归、LDA)、概率推断
似然函数(高斯模型)p(D∣μ,σ2)=∏i=1n12πσexp⁡(−(xi−μ)22σ2)p(D \mid \mu, \sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right)p(Dμ,σ2)=i=1n2πσ1exp(2σ2(xiμ)2)Likelihood Function给定参数下观测到数据的概率,衡量参数拟合度最大似然估计、模型参数优化
熵(信息熵)H(X)=−∑x∈Xp(x)log⁡2p(x)H(X) = -\sum_{x \in X} p(x) \log_2 p(x)H(X)=xXp(x)log2p(x)Information Entropy随机变量X的不确定性度量,熵越大不确定性越高决策树分裂准则、特征重要性评估、信息论
互信息I(X;Y)=H(X)−H(X∣Y)=∑x,yp(x,y)log⁡2p(x,y)p(x)p(y)I(X;Y) = H(X) - H(X \mid Y) = \sum_{x,y} p(x,y) \log_2 \frac{p(x,y)}{p(x)p(y)}I(X;Y)=H(X)H(XY)=x,yp(x,y)log2p(x)p(y)p(x,y)Mutual Information衡量两个随机变量的相关性,值越大关联越强特征选择、聚类结果评估(NMI计算)

5. 优化算法公式

公式名称公式英文全称中文解释应用场景
梯度下降参数更新θ(t+1)=θ(t)−η∇θJ(θ(t))\theta^{(t+1)} = \theta^{(t)} - \eta \nabla_\theta J(\theta^{(t)})θ(t+1)=θ(t)ηθJ(θ(t))Gradient Descent Update沿代价函数梯度负方向更新参数,η\etaη为学习率所有机器学习模型的参数优化
动量梯度下降更新v(t+1)=γv(t)+η∇θJ(θ(t))v^{(t+1)} = \gamma v^{(t)} + \eta \nabla_\theta J(\theta^{(t)})v(t+1)=γv(t)+ηθJ(θ(t))
θ(t+1)=θ(t)−v(t+1)\theta^{(t+1)} = \theta^{(t)} - v^{(t+1)}θ(t+1)=θ(t)v(t+1)
Momentum Gradient Descent引入动量项vvv,加速收敛,抑制震荡神经网络、深度学习模型的优化
Adam优化器更新m(t)=β1m(t−1)+(1−β1)∇θJm^{(t)} = \beta_1 m^{(t-1)} + (1-\beta_1) \nabla_\theta Jm(t)=β1m(t1)+(1β1)θJ
v(t)=β2v(t−1)+(1−β2)(∇θJ)2v^{(t)} = \beta_2 v^{(t-1)} + (1-\beta_2) (\nabla_\theta J)^2v(t)=β2v(t1)+(1β2)(θJ)2
m^(t)=m(t)1−β1t,v^(t)=v(t)1−β2t\hat{m}^{(t)} = \frac{m^{(t)}}{1-\beta_1^t}, \hat{v}^{(t)} = \frac{v^{(t)}}{1-\beta_2^t}m^(t)=1β1tm(t),v^(t)=1β2tv(t)
θ(t+1)=θ(t)−ηm^(t)v^(t)+ϵ\theta^{(t+1)} = \theta^{(t)} - \eta \frac{\hat{m}^{(t)}}{\sqrt{\hat{v}^{(t)}} + \epsilon}θ(t+1)=θ(t)ηv^(t)+ϵm^(t)
Adam Optimizer Update结合动量和自适应学习率,mmm为一阶矩,vvv为二阶矩深度学习模型(CNN、Transformer)的优化

二、深度学习领域核心公式

聚焦神经网络结构(CNN、RNN、Transformer)、激活函数、反向传播、生成模型等核心公式。

1. 神经网络基础公式

公式名称公式英文全称中文解释应用场景
全连接层预激活zl=Wlal−1+blz^l = W^l a^{l-1} + b^lzl=Wlal1+blFully Connected Layer Pre-activationlll层线性变换结果,al−1a^{l-1}al1为前一层激活值全连接神经网络、深度学习模型隐藏层
全连接层激活值al=f(zl)a^l = f(z^l)al=f(zl)Fully Connected Layer Activationlll层输出,fff为激活函数神经网络各层输出计算
Sigmoid激活函数σ(z)=11+e−z\sigma(z) = \frac{1}{1 + e^{-z}}σ(z)=1+ez1Sigmoid Activation Function输出映射到(0,1),引入非线性二分类输出层、LSTM门控机制
ReLU激活函数ReLU(z)=max⁡(0,z)\text{ReLU}(z) = \max(0, z)ReLU(z)=max(0,z)Rectified Linear Unit负半轴输出0,正半轴线性输出,缓解梯度消失神经网络隐藏层(CNN、RNN)
Softmax激活函数Softmax(ziL)=eziL∑j=1CezjL\text{Softmax}(z_i^L) = \frac{e^{z_i^L}}{\sum_{j=1}^C e^{z_j^L}}Softmax(ziL)=j=1CezjLeziLSoftmax Activation Function多分类输出层,将输出映射为概率分布图像分类、多标签分类任务输出层
均方误差损失(单样本)L=12∣y^−y∣2L = \frac{1}{2} |\hat{y} - y|^2L=21y^y2MSE Loss (Single Sample)单样本回归任务损失,衡量预测值与真实值差异深度学习回归任务(如超分辨率)损失函数
交叉熵损失(单样本)L=−∑c=1Cyclog⁡y^cL = -\sum_{c=1}^C y_c \log \hat{y}_cL=c=1Cyclogy^cCross-Entropy Loss (Single Sample)单样本分类任务损失,衡量概率分布差异深度学习分类任务损失函数

2. 反向传播核心公式

公式名称公式英文全称中文解释应用场景
输出层误差(Softmax+CE)δL=y^−y\delta^L = \hat{y} - yδL=y^yOutput Layer Error输出层误差,由预测值与真实值直接计算分类任务神经网络反向传播的起点
隐藏层误差δl=(Wl+1)Tδl+1⊙f′(zl)\delta^l = (W^{l+1})^T \delta^{l+1} \odot f'(z^l)δl=(Wl+1)Tδl+1f(zl)Hidden Layer Errorlll层误差,由后一层误差反向传播得到,⊙\odot为逐元素乘积神经网络隐藏层参数梯度计算
权重梯度∂L∂Wl=δl(al−1)T\frac{\partial L}{\partial W^l} = \delta^l (a^{l-1})^TWlL=δl(al1)TWeight Gradientlll层权重的梯度,用于参数更新神经网络权重优化
偏置梯度∂L∂bl=δl\frac{\partial L}{\partial b^l} = \delta^lblL=δlBias Gradientlll层偏置的梯度,用于参数更新神经网络偏置优化

3. CNN核心公式

公式名称公式英文全称中文解释应用场景
2D卷积运算y[i,j]=(x∗k)[i,j]=∑m=0kh−1∑n=0kw−1x[i+m,j+n]⋅k[m,n]y[i,j] = (x * k)[i,j] = \sum_{m=0}^{k_h-1} \sum_{n=0}^{k_w-1} x[i+m,j+n] \cdot k[m,n]y[i,j]=(xk)[i,j]=m=0kh1n=0kw1x[i+m,j+n]k[m,n]2D Convolution Operation输入特征图xxx与卷积核kkk的2D卷积,逐元素相乘求和CNN卷积层特征提取
卷积输出尺寸(Same Padding)Hout=Hin,Wout=WinH_{out} = H_{in}, W_{out} = W_{in}Hout=Hin,Wout=WinConvolution Output Size (Same Padding)填充后输出特征图尺寸与输入一致,p=⌊ks/2⌋p = \lfloor k_s/2 \rfloorp=ks/2CNN卷积层尺寸保持
卷积输出尺寸(Valid Padding)Hout=Hin−ks+1,Wout=Win−ks+1H_{out} = H_{in} - k_s + 1, W_{out} = W_{in} - k_s + 1Hout=Hinks+1,Wout=Winks+1Convolution Output Size (Valid Padding)无填充时输出尺寸,ksk_sks为卷积核尺寸CNN卷积层尺寸压缩
最大池化运算y[i,j]=max⁡m,n∈poolx[i⋅s+m,j⋅s+n]y[i,j] = \max_{m,n \in \text{pool}} x[i \cdot s + m, j \cdot s + n]y[i,j]=maxm,npoolx[is+m,js+n]Max Pooling Operation池化窗口内取最大值,降低特征维度CNN池化层,减少参数与计算量

4. RNN与LSTM公式

公式名称公式英文全称中文解释应用场景
简单RNN隐藏状态更新ht=tanh⁡(Wxhxt+Whhht−1+bh)h^t = \tanh(W_{xh} x^t + W_{hh} h^{t-1} + b_h)ht=tanh(Wxhxt+Whhht1+bh)
yt=Whyht+byy^t = W_{hy} h^t + b_yyt=Whyht+by
Simple RNN Update时刻ttt隐藏状态hth^tht由当前输入xtx^txt和前一状态ht−1h^{t-1}ht1计算时序数据处理(如文本分类、语音识别)
LSTM输入门it=σ(Wxixt+Whiht−1+bi)i^t = \sigma(W_{xi} x^t + W_{hi} h^{t-1} + b_i)it=σ(Wxixt+Whiht1+bi)LSTM Input Gate控制新信息进入细胞状态的门控,输出(0,1)区间LSTM网络,缓解梯度消失
LSTM遗忘门ft=σ(Wxfxt+Whfht−1+bf)f^t = \sigma(W_{xf} x^t + W_{hf} h^{t-1} + b_f)ft=σ(Wxfxt+Whfht1+bf)LSTM Forget Gate控制历史细胞状态丢弃的门控,输出(0,1)区间LSTM网络,长期记忆保留
LSTM输出门ot=σ(Wxoxt+Whoht−1+bo)o^t = \sigma(W_{xo} x^t + W_{ho} h^{t-1} + b_o)ot=σ(Wxoxt+Whoht1+bo)LSTM Output Gate控制细胞状态输出到隐藏状态的门控LSTM网络,隐藏状态更新
LSTM细胞状态更新c~t=tanh⁡(Wxcxt+Whcht−1+bc)\tilde{c}^t = \tanh(W_{xc} x^t + W_{hc} h^{t-1} + b_c)c~t=tanh(Wxcxt+Whcht1+bc)
ct=ft⊙ct−1+it⊙c~tc^t = f^t \odot c^{t-1} + i^t \odot \tilde{c}^tct=ftct1+itc~t
LSTM Cell State Update候选细胞状态c~t\tilde{c}^tc~t与历史状态结合,更新长期记忆LSTM网络核心,存储长期时序信息
LSTM隐藏状态输出ht=ot⊙tanh⁡(ct)h^t = o^t \odot \tanh(c^t)ht=ottanh(ct)LSTM Hidden State Output隐藏状态由输出门和细胞状态共同决定LSTM网络输出,用于后续预测

5. Transformer核心公式

公式名称公式英文全称中文解释应用场景
缩放点积注意力Attn(Q,K,V)=softmax(QKTdk)V\text{Attn}(Q,K,V) = \text{softmax}\left( \frac{Q K^T}{\sqrt{d_k}} \right) VAttn(Q,K,V)=softmax(dkQKT)VScaled Dot-Product Attention计算查询QQQ与键KKK的相似度,加权求和值VVVdk\sqrt{d_k}dk为缩放因子Transformer注意力机制核心
多头注意力MHAttn(Q,K,V)=Concat(head1,...,headh)WO\text{MHAttn}(Q,K,V) = \text{Concat}(\text{head}_1, ..., \text{head}_h) W^OMHAttn(Q,K,V)=Concat(head1,...,headh)WO
headi=Attn(QWiQ,KWiK,VWiV)\text{head}_i = \text{Attn}(Q W_i^Q, K W_i^K, V W_i^V)headi=Attn(QWiQ,KWiK,VWiV)
Multi-Head AttentionQ,K,VQ,K,VQ,K,V拆分hhh组并行计算注意力,再拼接投影Transformer编码器/解码器,捕捉多维度关联
前馈神经网络(FFN)FFN(x)=max⁡(0,xW1+b1)W2+b2\text{FFN}(x) = \max(0, x W_1 + b_1) W_2 + b_2FFN(x)=max(0,xW1+b1)W2+b2Feed-Forward NetworkTransformer中两层全连接网络,引入非线性Transformer编码器/解码器层后特征变换
位置嵌入(正弦函数)PE(pos,2i)=sin⁡(pos100002i/dmodel)PE_{(pos, 2i)} = \sin\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i)=sin(100002i/dmodelpos)
PE(pos,2i+1)=cos⁡(pos100002i/dmodel)PE_{(pos, 2i+1)} = \cos\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i+1)=cos(100002i/dmodelpos)
Positional Embedding为Transformer加入时序信息,pospospos为位置索引Transformer输入层,弥补无循环结构的时序缺失

6. 生成模型公式

公式名称公式英文全称中文解释应用场景
GAN价值函数V(G,D)=Ex∼pr[log⁡D(x)]+Ez∼pz[log⁡(1−D(G(z)))]V(G,D) = \mathbb{E}_{x \sim p_r} [\log D(x)] + \mathbb{E}_{z \sim p_z} [\log(1 - D(G(z)))]V(G,D)=Expr[logD(x)]+Ezpz[log(1D(G(z)))]GAN Value Function生成器GGG与判别器DDD的对抗目标,prp_rpr为真实分布,pzp_zpz为噪声分布GAN训练,最小最大化博弈
GAN生成器优化目标min⁡GV(G,D)=min⁡GEz∼pz[log⁡(1−D(G(z)))]\min_G V(G,D) = \min_G \mathbb{E}_{z \sim p_z} [\log(1 - D(G(z)))]minGV(G,D)=minGEzpz[log(1D(G(z)))]GAN Generator Objective生成器目标:最小化判别器对生成样本的识别概率GAN生成器训练,提升生成样本真实性
GAN判别器优化目标max⁡DV(G,D)=max⁡D(Ex∼pr[log⁡D(x)]+Ez∼pz[log⁡(1−D(G(z)))])\max_D V(G,D) = \max_D \left( \mathbb{E}_{x \sim p_r} [\log D(x)] + \mathbb{E}_{z \sim p_z} [\log(1 - D(G(z)))] \right)maxDV(G,D)=maxD(Expr[logD(x)]+Ezpz[log(1D(G(z)))])GAN Discriminator Objective判别器目标:最大化对真实/生成样本的区分能力GAN判别器训练,提升判别准确性
FID(Fréchet距离)FID=∣μr−μg∣2+Tr(Σr+Σg−2ΣrΣg)\text{FID} = |\mu_r - \mu_g|^2 + \text{Tr}(\Sigma_r + \Sigma_g - 2 \sqrt{\Sigma_r \Sigma_g})FID=μrμg2+Tr(Σr+Σg2ΣrΣg)Fréchet Inception Distance衡量真实样本与生成样本特征分布差异,μ\muμ为均值,Σ\SigmaΣ为协方差生成模型(GAN、VAE)性能评估

三、信号处理领域核心公式

覆盖时域/频域分析、线性系统、滤波、调制解调、信号质量评估等核心公式。

1. 信号基础与时域分析公式

公式名称公式英文全称中文解释应用场景
正弦信号x(t)=Asin⁡(ωt+ϕ)=Asin⁡(2πft+ϕ)x(t) = A \sin(\omega t + \phi) = A \sin(2\pi f t + \phi)x(t)=Asin(ωt+ϕ)=Asin(2πft+ϕ)Sinusoidal Signal基本周期信号,AAA为幅值,ω\omegaω为角频率,ϕ\phiϕ为相位信号合成、系统频率响应测试
采样定理(奈奎斯特)fs≥2fmaxf_s \geq 2 f_{\text{max}}fs2fmaxNyquist Sampling Theorem采样频率需至少为信号最高频率的2倍,避免混叠模拟信号数字化(如音频采样、图像采集)
离散信号表示x[n]=xa(nTs)x[n] = x_a(n T_s)x[n]=xa(nTs)Discrete-Time Signal Representation离散信号由连续信号xa(t)x_a(t)xa(t)按采样周期TsT_sTs采样得到数字信号处理(如滤波、傅里叶变换)
自相关函数(连续)rxx(τ)=∫−∞∞x(t)x(t+τ)dtr_{xx}(\tau) = \int_{-\infty}^{\infty} x(t) x(t + \tau) dtrxx(τ)=x(t)x(t+τ)dtContinuous Autocorrelation Function信号与自身时延版本的相关性,反映周期性信号周期性分析、噪声功率估计
自相关函数(离散)rxx[k]=∑n=−∞∞x[n]x[n+k]r_{xx}[k] = \sum_{n=-\infty}^{\infty} x[n] x[n + k]rxx[k]=n=x[n]x[n+k]Discrete Autocorrelation Function离散信号的自相关,衡量不同时延的相似性离散信号周期性分析、谱估计
互相关函数(连续)rxy(τ)=∫−∞∞x(t)y(t+τ)dtr_{xy}(\tau) = \int_{-\infty}^{\infty} x(t) y(t + \tau) dtrxy(τ)=x(t)y(t+τ)dtContinuous Cross-Correlation Function两个信号的相关性,用于信号匹配信号检测、时延估计(如雷达测距)

2. 频域分析核心公式

公式名称公式英文全称中文解释应用场景
连续时间傅里叶变换(CTFT)X(f)=∫−∞∞x(t)e−j2πftdtX(f) = \int_{-\infty}^{\infty} x(t) e^{-j2\pi f t} dtX(f)=x(t)ej2πftdtContinuous-Time Fourier Transform将连续时域信号转换到频域,描述频率成分连续信号频域分析(如模拟滤波)
连续时间傅里叶逆变换x(t)=∫−∞∞X(f)ej2πftdfx(t) = \int_{-\infty}^{\infty} X(f) e^{j2\pi f t} dfx(t)=X(f)ej2πftdfInverse CTFT将频域信号转换回时域,重构原始信号频域处理后信号恢复
离散傅里叶变换(DFT)X[k]=∑n=0N−1x[n]e−j2πNkn,k=0,...,N−1X[k] = \sum_{n=0}^{N-1} x[n] e^{-j \frac{2\pi}{N} k n}, \quad k=0,...,N-1X[k]=n=0N1x[n]ejN2πkn,k=0,...,N1Discrete Fourier Transform有限长离散信号的频域表示,NNN为变换长度数字信号频域分析(如音频频谱、雷达信号)
离散傅里叶逆变换(IDFT)x[n]=1N∑k=0N−1X[k]ej2πNkn,n=0,...,N−1x[n] = \frac{1}{N} \sum_{k=0}^{N-1} X[k] e^{j \frac{2\pi}{N} k n}, \quad n=0,...,N-1x[n]=N1k=0N1X[k]ejN2πkn,n=0,...,N1Inverse DFT将DFT频域信号转换回时域,重构离散信号频域滤波后信号恢复、FFT应用
功率谱密度(PSD)Px(f)=lim⁡T→∞1T∣XT(f)∣2P_x(f) = \lim_{T \to \infty} \frac{1}{T} |X_T(f)|^2Px(f)=limTT1XT(f)2Power Spectral Density信号功率随频率的分布,单位W/Hz信号频率成分分析、噪声功率估计
帕塞瓦尔定理(连续)∫−∞∞∣x(t)∣2dt=∫−∞∞∣X(f)∣2df\int_{-\infty}^{\infty} |x(t)|^2 dt = \int_{-\infty}^{\infty} |X(f)|^2 dfx(t)2dt=X(f)2dfParseval’s Theorem (Continuous)时域能量等于频域能量,能量守恒信号能量计算、频域能量分析
帕塞瓦尔定理(离散)∑n=−∞∞∣x[n]∣2=12π∫−ππ∣X(ejΩ)∣2dΩ\sum_{n=-\infty}^{\infty} |x[n]|^2 = \frac{1}{2\pi} \int_{-\pi}^{\pi} |X(e^{j\Omega})|^2 d\Omegan=x[n]2=2π1ππX(ejΩ)2dΩParseval’s Theorem (Discrete)离散信号时域能量等于频域能量积分离散信号能量计算、谱分析

3. 线性系统与滤波公式

公式名称公式英文全称中文解释应用场景
卷积定理(时域)y(t)=x(t)∗h(t)y(t) = x(t) * h(t)y(t)=x(t)h(t)Convolution Theorem (Time Domain)LTI系统输出为输入与冲激响应的卷积LTI系统时域分析、信号滤波
卷积定理(频域)Y(f)=X(f)⋅H(f)Y(f) = X(f) \cdot H(f)Y(f)=X(f)H(f)Convolution Theorem (Frequency Domain)时域卷积对应频域乘积,H(f)H(f)H(f)为系统频率响应LTI系统频域分析、快速卷积计算
低通滤波器频率响应HL(f)={1,∣f∣≤fc0,∣f∣>fcH_L(f) = \begin{cases} 1, & |f| \leq f_c \\ 0, & |f| > f_c \end{cases}HL(f)={1,0,ffcf>fcLow-Pass Filter Frequency Response理想低通滤波器,允许低于截止频率fcf_cfc的信号通过信号低通滤波、抗混叠滤波设计
数字滤波器差分方程y[n]=∑k=0Mbkx[n−k]−∑k=1Naky[n−k]y[n] = \sum_{k=0}^M b_k x[n-k] - \sum_{k=1}^N a_k y[n-k]y[n]=k=0Mbkx[nk]k=1Naky[nk]Digital Filter Difference EquationIIR滤波器输入输出关系,ak,bka_k,b_kak,bk为滤波器系数数字滤波器实现(如音频降噪、信号去干扰)
窗函数(汉宁窗)w[n]=0.5−0.5cos⁡(2πnN−1),n=0,...,N−1w[n] = 0.5 - 0.5 \cos\left( \frac{2\pi n}{N-1} \right), \quad n=0,...,N-1w[n]=0.50.5cos(N12πn),n=0,...,N1Hanning Window Function余弦窗函数,降低频谱泄漏信号截断、FFT谱分析、滤波器设计

4. 信号质量与调制公式

公式名称公式英文全称中文解释应用场景
信噪比(SNR)SNR=10log⁡10(PsPn)(dB)SNR = 10 \log_{10} \left( \frac{P_s}{P_n} \right) \quad (\text{dB})SNR=10log10(PnPs)(dB)Signal-to-Noise Ratio信号功率与噪声功率的比值,衡量信号质量信号质量评估、通信系统性能分析
峰值信噪比(PSNR)PSNR=10log⁡10(Amax2MSE)(dB)PSNR = 10 \log_{10} \left( \frac{A_{\text{max}}^2}{MSE} \right) \quad (\text{dB})PSNR=10log10(MSEAmax2)(dB)Peak Signal-to-Noise Ratio基于信号峰值的信噪比,AmaxA_{\text{max}}Amax为信号峰值图像/音频压缩失真评估、降噪效果衡量
调幅(AM)信号xAM(t)=(A0+s(t))cos⁡(ωct)x_{\text{AM}}(t) = (A_0 + s(t)) \cos(\omega_c t)xAM(t)=(A0+s(t))cos(ωct)Amplitude Modulation Signal载波幅值随调制信号s(t)s(t)s(t)变化的已调信号模拟通信(如调幅广播)、信号传输
调频(FM)信号xFM(t)=Accos⁡(ωct+kf∫−∞ts(τ)dτ)x_{\text{FM}}(t) = A_c \cos\left( \omega_c t + k_f \int_{-\infty}^t s(\tau) d\tau \right)xFM(t)=Accos(ωct+kfts(τ)dτ)Frequency Modulation Signal载波频率随调制信号积分变化的已调信号调频广播、抗干扰通信系统
动态时间规整(DTW)距离DTW(i,j)=d(xi,yj)+min⁡{DTW(i−1,j),DTW(i,j−1),DTW(i−1,j−1)}DTW(i,j) = d(x_i,y_j) + \min\{DTW(i-1,j), DTW(i,j-1), DTW(i-1,j-1)\}DTW(i,j)=d(xi,yj)+min{DTW(i1,j),DTW(i,j1),DTW(i1,j1)}DTW Distance递归计算两个时序信号的最小累积距离,ddd为帧距离时序信号匹配(如语音识别、步态分析)
信号检测检验统计量(能量)T(x)=∫T0T1∣x(t)∣2dtT(x) = \int_{T_0}^{T_1} |x(t)|^2 dtT(x)=T0T1x(t)2dtEnergy Test Statistic基于信号能量的检测统计量,用于判决信号是否存在雷达信号检测、噪声中弱信号提取
http://www.dtcms.com/a/541169.html

相关文章:

  • 各类服装网站建设软件正版化情况及网站建设情况
  • 服务器端护照识别技术:通过图像预处理、OCR字符识别和智能分析实现高效身份核验
  • 武胜网站建设敬请期待海报
  • 基于Vue的高校教师文件管理系统7h274l7n(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
  • Surface-Book-3 i7-1065G7-i5-1035G7 黑苹果 EFI
  • 北京汽车业务网站开发公司建设银行网站网址是什么
  • 多组分精准监测标杆:NHVOC-70 型系列挥发性有机物 (TVOC) 在线监测系统技术解析与场景落地
  • 动态人脸识别技术解析
  • 为迎战双十一,南凌科技发布「大促网络保障解决方案」,以确定性网络抵御不确定流量洪峰
  • 动作捕捉设备应用场景全解析:涵盖机器人开发与数字人交互的多元实践
  • SQL调优专题笔记:打造你的数据库性能优化思维体系
  • AtCoder真题及详细题解 ABC425B: Find Permutation 2
  • 电子机箱网站建设报告上海百度做网站
  • web渗透知识总结
  • 盲盒小程序系统开发:助力品牌拓展新市场
  • Llama-2-7b 昇腾部署:六大场景性能基准核心指标拆解
  • Vue3.x核心技术与实战(八)
  • 批量吞吐量实测:Llama-2-7b 昇腾 NPU 六大场景数据报告
  • 网站建设涉及的法律易名中国域名门户网站
  • 企业网站托管的方案软件开发流程详细
  • 做推广适合哪些网站深圳办公室设计公司排名
  • 做网站设计怎么提升自己怎么搭建个人博客网站
  • 测试题-4
  • 莱西大型网站建设做宣传海报的网站
  • Coze套餐实现工作总结
  • 做新网站的swot分析怎样选择网站建设
  • Mantle Global Hackathon 2025:里程碑升级后的首场生态猎星行动!
  • 景观建设网站宁波网站推广多少钱一个
  • Spring JDBC高级操作全解析
  • Matlab混合编程技术学习教程——目录