多视角学习(Multi-view Learning)
- 核心思想:从多个不同角度(视角)获取同一对象的信息,并利用这些信息进行学习。例如,对一个人进行分析时,可同时从文字描述、图像特征、语音信息等不同视角入手。
- 应用场景:
- 多媒体数据分析(如图文关联、视频理解)。
- 跨模态检索(如通过文字搜索图片)。
- 社交网络中用户行为分析(结合文本、社交关系等视角)。
- 优势:多角度信息互补,提升模型对复杂问题的理解能力,增强泛化性。
多任务学习(Multi-task Learning)
- 核心思想:同时学习多个相关任务,通过任务间的信息共享和知识迁移,提升每个任务的学习效果。例如,在自动驾驶中同时学习 “目标检测” 和 “车道线识别” 任务。
- 典型方法:
- 共享底层特征提取网络,不同任务使用独立输出层。
- 设计任务间的约束关系(如相似任务的参数共享)。
- 应用场景:
- 自然语言处理(如同时进行情感分析和命名实体识别)。
- 医疗诊断(同时预测多种疾病指标)。
- 优势:减少对单任务数据量的依赖,提高模型效率,避免过拟合。
迁移学习(Transfer Learning)
- 核心思想:将在一个任务(源任务)中学习到的知识迁移到另一个任务(目标任务)中。例如,用 ImageNet 预训练的图像模型迁移到医学图像分类。
- 常见类型:
- 领域迁移:源任务与目标任务领域不同(如从自然图像到医学图像)。
- 任务迁移:源任务与目标任务类型不同(如从图像分类到目标检测)。
- 实现方式:
- 微调(Fine-tuning):用源任务预训练模型,在目标任务数据上微调参数。
- 特征迁移:提取源任务的特征用于目标任务。
- 应用场景:
- 小样本学习(目标任务数据少,借助源任务知识)。
- 跨语言模型(如英语预训练模型迁移到中文任务)。
- 优势:减少对大规模标注数据的依赖,加速模型训练,降低应用成本。