PEFT 统一框架UniPELT微调大模型介绍篇
介绍
UniPELT用于高效地微调大型语言模型(PEFT:Parameter-Efficient Fine-Tuning),UniPELT 将多种现有的高效微调方法(如 Adapters、Soft Prompts、Representation-based 方法)整合为一个统一的、可学习的框架。它通过一个门控机制自动选择和组合最适合当前任务或数据的微调方法,无需人工干预。UniPELT 提供了一个灵活、自适应的微调框架,避免了对每个任务手动选择微调方法的麻烦,适合快速部署和实验多种 PEFT 策略。
优点
- 不同任务适合不同的微调方法,UniPELT 能自动学习最优组合。
- 在数据有限的情况下表现尤其出色。consistently 优于全参数微调(full fine-tuning),尤其是在低资源场景下。
- 在多个任务上,UniPELT 不仅比单个方法好,甚至超过了“所有方法中最好的那个”的性能,说明混合使用多种方法比单一方法更有效。在 CLUE 基准测试中,UniPELT 比其包含的最佳单一方法还要好 1-4%。
UniPELT组合3类主流PEFT技术
分析如图,接收当前层的输入(如 h_in
),从这个数据中提取信息,基于这个输入,它通过一个简单的神经网络(通常是线性层+激活函数)计算出三个权重值(g_adapter
, g_prompt
, g_lora
),分别代表当前时刻“使用Adapter、Soft Prompt和LoRA”的强度或概率。用这些权重值来控制各个子模块的输出
- 对于Adapter:原始FFN层的输出
h_FN
和 Adapter的输出h_A
会按照门控计算出的权重进行混合。 - 对于Soft Prompts (如Prefix-tuning):门控可能会决定在当前注意力层,使用多少由前缀(Prefix)所提供的“键值对”信息。
- 对于Representation-based (如LoRA):门控会控制LoRA分支(计算出的
Δh
)对原始注意力参数(如W_v
,W_o
)的贡献程度。
最终,当前层的输出是这三个技术路径根据门控权重混合后的结果。