【阿里云大模型高级工程师ACP学习笔记】2.7 通过微调增强模型能力 (下篇)(⭐️⭐️⭐️ 重点章节!!!)
学习目标
特别说明:由于这一章节是2025年3月官方重点更新的部分,新增内容非常多,因此我不得不整理成上、下两篇,方便大家参考。
备考阿里云大模型高级工程师ACP认证时,深入钻研《2.7通过微调增强模型能力(下篇)》,期望达成以下目标:
- 掌握高效微调技术:深入理解预训练与微调的差异,熟练掌握如LoRA等高效微调方法的原理和应用场景,能依据不同任务需求选择合适的微调技术。
- 学会模型微调实践:借助ms - swift框架,独立完成模型微调实验,精准调整学习率、LoRA的秩、数据集学习次数等关键参数,有效解决微调过程中出现的过拟合、欠拟合等问题。
- 了解微调拓展知识:熟悉微调在其他机器学习任务中的应用,掌握更多高效微调方法,明晰微调数据集的构建策略和模型评测常用指标,拓宽大模型微调的知识视野。
知识点汇总
知识点 | 知识内容 | 重要性 | 学习难易度 |
---|---|---|---|
预训练与微调 | - 预训练:在大规模通用数据集上开展训练,让模型学习广泛的基础知识与特征表示,这些知识具有通用性,并非针对特定任务。采用自监督/无监督的学习方式,使用互联网海量文本数据,无需人工标注,可有效节省人力成本。例如,常见的预训练模型有Qwen2.5 - Max、DeepSeek - V3、GPT - 4等。 - 微调:以预训练模型为基础,运用特定任务的小规模数据集进一步训练。通过有监督学习,借助标注数据指导模型完成任务,使模型适应具体的下游任务,如医疗、法务等专业领域。微调所需样本数量通常在几千到几万条。 - 两者区别:预训练旨在学习通用特征,微调则是为了适应特定任务;预训练使用大规模通用数据,微调使用小规模任务相关数据;预训练采用自监督/无监督的训练方法,微调采用有监督的训练方法;预训练时所有参数可训练,微调时部分或全部参数可训练;预训练用于基础模型构建,微调用于特定任务优化 | 高 | 中 |
LoRA微调 | - 原理:LoRA(Low - Rank Adaptation)即低秩适应微调,它不依赖模型架构,通过矩阵运算将微调需更新的参数分解为两个较小的低秩矩阵 A d × r A_{d×r} Ad×r和 B r × d B_{r×d} Br×d进行训练,而模型原有的矩阵不参与训练,公式表示为 W d × d 微调后 = W d × d 微调前 + A d × r ⋅ B r × d W_{d×d}^{微调后}=W_{d×d}^{微调前}+A_{d×r}⋅B_{r×d} Wd×d微调后=Wd×d微调前+Ad×r⋅ |