当前位置: 首页 > news >正文

【阿里云大模型高级工程师ACP学习笔记】2.7 通过微调增强模型能力 (下篇)(⭐️⭐️⭐️ 重点章节!!!)

学习目标

特别说明:由于这一章节是2025年3月官方重点更新的部分,新增内容非常多,因此我不得不整理成上、下两篇,方便大家参考。

备考阿里云大模型高级工程师ACP认证时,深入钻研《2.7通过微调增强模型能力(下篇)》,期望达成以下目标:

  • 掌握高效微调技术:深入理解预训练与微调的差异,熟练掌握如LoRA等高效微调方法的原理和应用场景,能依据不同任务需求选择合适的微调技术。
  • 学会模型微调实践:借助ms - swift框架,独立完成模型微调实验,精准调整学习率、LoRA的秩、数据集学习次数等关键参数,有效解决微调过程中出现的过拟合、欠拟合等问题。
  • 了解微调拓展知识:熟悉微调在其他机器学习任务中的应用,掌握更多高效微调方法,明晰微调数据集的构建策略和模型评测常用指标,拓宽大模型微调的知识视野。

知识点汇总

知识点知识内容重要性学习难易度
预训练与微调- 预训练:在大规模通用数据集上开展训练,让模型学习广泛的基础知识与特征表示,这些知识具有通用性,并非针对特定任务。采用自监督/无监督的学习方式,使用互联网海量文本数据,无需人工标注,可有效节省人力成本。例如,常见的预训练模型有Qwen2.5 - Max、DeepSeek - V3、GPT - 4等。
- 微调:以预训练模型为基础,运用特定任务的小规模数据集进一步训练。通过有监督学习,借助标注数据指导模型完成任务,使模型适应具体的下游任务,如医疗、法务等专业领域。微调所需样本数量通常在几千到几万条。
- 两者区别:预训练旨在学习通用特征,微调则是为了适应特定任务;预训练使用大规模通用数据,微调使用小规模任务相关数据;预训练采用自监督/无监督的训练方法,微调采用有监督的训练方法;预训练时所有参数可训练,微调时部分或全部参数可训练;预训练用于基础模型构建,微调用于特定任务优化
LoRA微调- 原理:LoRA(Low - Rank Adaptation)即低秩适应微调,它不依赖模型架构,通过矩阵运算将微调需更新的参数分解为两个较小的低秩矩阵 A d × r A_{d×r} Ad×r B r × d B_{r×d} Br×d进行训练,而模型原有的矩阵不参与训练,公式表示为 W d × d 微调后 = W d × d 微调前 + A d × r ⋅ B r × d W_{d×d}^{微调后}=W_{d×d}^{微调前}+A_{d×r}⋅B_{r×d} Wd×d微调后=Wd×d微调前+Ad×r

相关文章:

  • Linux企业级分区设置
  • 呼叫中心座席管理系统:智能升级,高效服务
  • Learning vtkjs之ImageMarchingCubes
  • Qt/C++面试【速通笔记六】—Qt 中的线程同步
  • 代码随想录算法训练营Day39
  • 运用ESS(弹性伸缩)技术实现服务能力的纵向扩展
  • DeepSeek-Prover-V2-671B
  • 数据编码(Encoding)
  • 01_K近邻
  • 网络基础-----C语言经典题目(12)
  • kivy android打包buildozer.spec GUI配置
  • LeetCode 1295.统计位数为偶数的数字:模拟
  • 4:机器人目标识别无序抓取程序二次开发
  • 4.30阅读
  • 变量char2、*char2、pChar3、*pChar3的存储位置
  • Qwen3-32B的幻觉问题
  • uv安装及使用
  • C++初阶-string类2
  • Vue Router路由原理
  • 网工_ICMP协议
  • 国铁集团:5月1日全国铁路预计发送旅客2250万人次
  • 浪尖计划再出发:万亿之城2030课题组赴九城调研万亿产业
  • “五一”假期逛上海车展请提前购票,展会现场不售当日票
  • 向总书记汇报具身智能发展的“稚辉君”:从期待到兴奋再到备受鼓舞
  • 华侨城A:一季度营收53.63亿元,净利润亏损14.19亿元
  • 观察|英国航母再次部署印太,“高桅行动”也是“高危行动”