【AI Guide】AI面试攻略只用看这一篇就够了!力争做全网最全的AI面试攻略——大模型(二十七)多任务学习
【AI Guide】AI面试攻略只用看这一篇就够了!力争做全网最全的AI面试攻略——大模型(二十七)多任务学习
- 多任务学习
-
- 多任务学习中的共享表示
- MTL(Multi-task Learning)与BERT的多任务学习
- MLM(Masked Language Model)
- SOP(Sentence Order Prediction)
- NSP(Next Sentence Prediction)
- 其他多任务学习方法
- 更多多任务学习中的任务
-
- Cloze(填空任务)
- Next Word Prediction(NWP)
- Sentence Classification(句子分类)
- 4. Masked Span Prediction(掩码区间预测)
- Denoising Autoencoding(去噪自编码器)
- Textual Entailment(文本蕴含)
- Multilingual Pretraining(多语言预训练)
多任务学习
多任务学习(Multi-task Learning, MTL)是一种学习策略,旨在通过同时训练多个相关任务,利用任务间的共享知识,从而提升模型的泛化能力和性能。多任务学习的核心思想是“共享表示”,通过多个任务的联合训练,学习一个能够同时适应多种任务的表示。
在自然语言处理(NLP)和计算机视觉等领域,多任务学习被广泛应用,尤其是在预训练模型和迁移学习方面。以下是一些常见的多任务学习方法及其应用,特别是在NLP中的应用。
多任务学习中的共享表示
在多任务学习中,通常会有多个任务共享部分网络结构,目标是通过这些共享的表示来促进不同任务之间的知识迁移。在NLP中,一些常见的任务包括:文本分类、情感分析、机器翻译、命名实体识别(NER)、关系抽取。
这些任务可以共享同一部分网络层(例如Embedding层或Transformer层),但在任务的最终输出层有不同的任务专用网络。
共享表示的优点:
- 提高泛化能力:通过任务间的共享,模型能够更好地捕捉数据中的共性特征,避免过拟合。
- 提升训练效率