当前位置: 首页 > news >正文

大模型微调

大模型微调

  • 参数
  • 微调框架
  • 免费算力平台
  • 本地微调框架

针对特定任务或领域,以高效方式对预训练大模型进行局部参数优化,在最小化计算成本的同时提升任务性能。核心方法包括参数高效微调技术(如LoRA、Adapter),仅调整少量参数即可实现精准适配。

参数

  1. LoRA:低秩矩阵的维度大小。常用 8、16、32、64、128,越大表示适配能力越强,但参数量和显存占用也会增加。
  2. target_modules:指定要对模型中哪些模块应用 LoRA 适配。q_proj, k_proj, v_proj, o_proj:Transformer 自注意力机制中的查询(Query)、键(Key)、值(Value)和输出(Output)投影层。gate_proj, up_proj, down_proj:Feed-Forward 网络(FFN)中的门控、上行、下行投影层。
    默认选择所有注意力层和 FFN 层,可以缩小范围(如仅 q_proj, v_proj)以进一步减少参数量。
  3. per_device_train_batch_size:每个GPU的批次大小(根据显存调整)
  4. gradient_accumulation_steps:梯度累积步数(等效批次大小 = batch_size * steps)
  5. warmup_steps:学习率预热步数(避免初始不稳定)
  6. max_steps:最大训练步数(覆盖 num_train_epochs
  7. learning_rate:初始学习率(常用 1e-5 到 2e-4)
  8. weight_decay:权重衰减系数(防止过拟合)
  9. lr_scheduler_type:学习率调度策略(如线性衰减),linear:线性衰减到 0,经典策略。其他选项:cosine(余弦衰减)、constant(恒定学习率)等。

微调框架

  1. Hugging Face Transformers + PEFT库:集成LoRA、Adapter等方法,快速实现高效微调。
  2. unsloth:集成LoRA、Adapter等方法,快速实现高效微调。

免费算力平台

  1. colab+huggingFace,https://colab.google/,需要科学上网。
  2. 魔搭社区,https://www.modelscope.cn/。

本地微调框架

  1. modelscope+unsloth
  2. modelscope+lamma factory

后续文章将逐一介绍以上四种微调方式

相关文章:

  • 从零到一:快速上手 Poetry——Python 项目管理的利器
  • 高频 SQL 50 题(基础版)_196. 删除重复的电子邮箱
  • 0304作业
  • 深入探索像ChatGPT这样的大语言模型-03-POST-Training:Reinforcement Learning
  • 《几何原本》命题I.9
  • Swagger详细使用介绍
  • Python第十三课:数据库交互 | 信息帝国的基石
  • 慕慕手记项目日记2025.3.3
  • 计划和展示(5条)DeepSeek提示词
  • 小米手机如何录制屏幕?手机、电脑屏幕录制方法分享
  • PMP项目管理—资源管理篇—6.控制资源
  • 课程2. 机器学习方法论
  • 【折线图 Line】——9
  • 阿里通义万相2.1模型在亚马逊云科技ECS容器中的私有化部署
  • Lumerical INTERCONNECT 中的自相位调制 (SPM)
  • 从零开始用react + tailwindcss + express + mongodb实现一个聊天程序(十) 收发消息
  • STM32F103C8T6 标准库(SPL)迁移到 HAL 库指南
  • DeepSeek本地接口调用(Ollama)
  • MySQL-表
  • 【C++】:继承
  • 网站建设工具最简洁的/网站推广途径
  • 小型手机网站建设多少钱/网络服务运营商
  • seo教程技术整站优化/在线培训管理系统
  • 广州网站建设网站/最近重大新闻
  • 做网站被骗了怎么办/怎么查百度收录
  • 敦化建设局网站/沈阳seo公司