科研经验贴:AI领域的研究方向总结
一、数据集(Dataset)
定义: 用于训练、验证和测试模型的样本集合,通常包含输入特征(如图像、文本)和对应标签(如类别、回归值)。
关键作用:
- 数据划分:
- 训练集:用于模型参数学习。
- 验证集:调整超参数(如学习率、正则化强度),防止过拟合。
- 测试集:评估模型的泛化能力(需确保未参与训练或调参)。
- 数据预处理:
- 归一化 / 标准化(如图像像素值归一化到 [0,1])、分词(文本任务)、数据增强(如图像旋转、翻转)。
- 数据质量:
- 影响模型上限,需关注数据平衡(如类别不平衡问题)、噪声、标注一致性。
示例:
- 图像分类:MNIST(手写数字)、CIFAR-10(物体分类)。
- 自然语言处理:IMDB(情感分析)、SQuAD(问答系统)。
二、模型(Model)
定义: 由神经网络层(如卷积层、全连接层、Transformer 层)组成的架构,用于学习输入到输出的映射关系。
关键要素:
- 架构设计:
- 任务适配:
- 图像:CNN(如 ResNet、YOLO);
- 序列:RNN/LSTM、Transformer(如 BERT、GPT);
- 图数据:GNN(图神经网络)。
- 超参数:层数、神经元数量、激活函数(如 ReLU、Sigmoid)、Dropout 率。
- 任务适配:
- 参数学习:
- 通过反向传播算法优化模型参数(权重和偏置),使损失函数最小化。
- 模型变种:
- 预训练模型(如 CLIP、LLaMA):基于大规模数据预训练,可微调至下游任务。
示例:
- 图像分割:U-Net;
- 机器翻译:Transformer encoder-decoder;
- 语音识别:CNN + LSTM + CTC 损失。
三、损失函数(Loss Function)
定义: 衡量模型预测值与真实值之间的差距,作为训练过程中优化的目标函数。
分类:
- 分类任务:
- 交叉熵损失(Cross-Entropy Loss):适用于多分类,如 Softmax 输出层,公式:
其中
为真实标签(one-hot 编码),
为预测概率。
- 二元交叉熵损失(Binary Cross-Entropy Loss):适用于二分类(如 Sigmoid 输出)。
- 焦点损失(Focal Loss):缓解类别不平衡问题,通过权重抑制易分类样本的影响。
- 交叉熵损失(Cross-Entropy Loss):适用于多分类,如 Softmax 输出层,公式:
- 回归任务:
- 均方误差(MSE):预测值与真实值差的平方均值,公式:
- 平均绝对误差(MAE):差值绝对值的均值,对异常值更鲁棒。
- 均方误差(MSE):预测值与真实值差的平方均值,公式:
- 其他任务:
- 排序任务:铰链损失(Hinge Loss);
- 生成任务:对抗损失(GANs 中的判别器与生成器损失)。
选择原则:
- 与任务匹配(分类 / 回归 / 生成);
- 可微分(支持反向传播);
- 计算效率(如大规模数据下避免复杂运算)。
四、度量(Metrics)
定义: 用于评估模型性能的量化指标,反映模型在特定任务上的效果(不同于损失函数,不一定可微)。
常见度量:
- 分类任务:
- 准确率(Accuracy):正确预测样本占比,但对不平衡数据不敏感。
- 精确率(Precision)、召回率(Recall)、F1 分数:适用于二分类,平衡查准率与查全率。
- 混淆矩阵(Confusion Matrix):可视化各类别预测对错情况。
- AUC-ROC:衡量分类器在不同阈值下的泛化能力。
- 回归任务:
- MSE、MAE、RMSE(均方根误差):误差的不同统计量,RMSE 与预测值量纲一致。
- R² 分数:预测值与真实值的拟合优度。
- 生成任务:
- 图像生成:FID(Frechet Inception Distance)、IS(Inception Score);
- 文本生成:BLEU(机器翻译)、PPL(困惑度,语言模型)。
- 其他:
- 目标检测:mAP(平均精度均值);
- 语义分割:IoU(交并比)。
注意事项:
- 度量需与业务目标一致(如医疗诊断中更关注召回率,避免漏诊);
- 训练时优化损失函数,但最终评估以度量为准(如损失降低但准确率未提升可能存在数据泄漏)。
五、基准(Benchmark)
定义: 在特定数据集上的公认性能标准,用于比较不同模型的优劣,通常包括:
- 经典模型的结果(如 ResNet 在 ImageNet 上的准确率);
- 最新技术(SOTA,State-of-the-Art)结果。
作用:
- 模型性能参考:
- 验证自研模型是否达到领域基本水平(如 ImageNet 分类需达到 80%+ 准确率才具竞争力)。
- 技术迭代标杆:
- 推动领域发展(如 BERT 刷新多项 NLP 任务基准后,后续模型需超越其性能)。
- 公平比较基础:
- 确保不同方法在相同数据集、相同评估协议下对比(如相同的测试集划分、度量标准)。
示例基准数据集:
- 图像:ImageNet(分类)、MSCOCO(检测 / 分割);
- 自然语言处理:GLUE(通用 NLP 任务)、SuperGLUE;
- 强化学习:Atari 游戏、MuJoCo 物理仿真环境。
六、核心流程与关联
- 数据驱动模型:数据集质量决定模型上限,预处理影响训练效率(如图像增强减少过拟合)。
- 损失函数引导优化:模型通过最小化损失函数学习参数,度量用于判断优化方向是否符合实际需求(如损失降低但 F1 分数下降可能因类别不平衡)。
- 基准定义竞争门槛:在公开基准上超越 SOTA 是模型落地或论文发表的重要依据(如 LLaMA 在 Hugging Face 基准中的表现)。
七、实践建议
- 数据优先:
- 花 80% 时间处理数据(清洗、增强、平衡),而非调参。
- 损失与度量解耦:
- 训练时用易优化的损失函数(如交叉熵),评估时用业务相关度量(如点击率预测中的 AUC)。
- 基准选择策略:
- 优先选择领域内权威基准(如计算机视觉选 ImageNet,NLP 选 GLUE);
- 若数据私有,需建立内部基准(如历史模型性能作为基线)。
- 模型轻量化与泛化:
- 在基准上追求高性能的同时,需考虑模型推理速度(如边缘设备的延迟限制)。