PEFT适配器加载
激活单个 LoRA 模块
当我们想要在自己的模型中使用Lora方法进行微调时,可以借助PeftModel来给我们自己的模型实现lora方法。
# 1. 创建原始模型
net_original = nn.Sequential(nn.Linear(10,10),nn.ReLU(),nn.Linear(10,2)
)# 2. 用副本分别创建并保存两个适配器(不污染原始模型)
net_copy1 = copy.deepcopy(net_original)
config1 = LoraConfig(target_modules=["0"]) # 在模型的第0层添加lora模块
model1 = get_peft_model(net_copy1, config1)
model1.save_pretrained("./weights/lora_A")net_copy2 = copy.deepcopy(net_original)
config2 = LoraConfig(target_modules=["2"])
model2 = get_peft_model(net_copy2, config2)
model2.save_pretrained("./weights/lora_B")
上述实现了自定义模型的创建和 lora 适配器的创建。
# 3. 用干净的原始模型加载lora_A(此时基础模型无任何适配器)
model = PeftModel.from_pretrained(copy.deepcopy(net_original), # 传入原始模型副本model_id="./weights/lora_A",adapter_name="task_a"
)# 4.加载第二个适配器
model.load_adapter(model_id="./weights/lora_B",adapter_name="task_b" # 另一个唯一名称
)# 使用 set_adapter() 强制模型使用指定的适配器并禁用其他适配器
model.set_adapter("task_b")
这一步实现了将两个适配器加载到模型上同时激活适配器 lora_B。
同时激活多个Lora模块
PeftMixedModel
支持同时激活多个LoRA模块,实现更灵活的组合调用。
import torch
from torch import nn
from peft import LoraConfig, get_peft_model, PeftModel, PeftMixedModel
import copy# 1. 创建原始模型
net_original = nn.Sequential(nn.Linear(10,10),nn.ReLU(),nn.Linear(10,2)
)# 2. 用副本分别创建并保存两个适配器(不污染原始模型)
net_copy1 = copy.deepcopy(net_original)
config1 = LoraConfig(target_modules=["0"])
model1 = get_peft_model(net_copy1, config1)
model1.save_pretrained("./weights/lora_A")net_copy2 = copy.deepcopy(net_original)
config2 = LoraConfig(target_modules=["2"])
model2 = get_peft_model(net_copy2, config2)
model2.save_pretrained("./weights/lora_B")model = PeftMixedModel.from_pretrained(copy.deepcopy(net_original),model_id="./weights/lora_A",adapter_name = "task_a"
)model.load_adapter(model_id="./weights/lora_B",adapter_name="task_b" # 另一个唯一名称
)# 使用 set_adapter() 强制模型使用指定的适配器并禁用其他适配器
model.set_adapter(["task_a","task_b"])print("adapter",model.active_adapter)
与上面的流程基本一致,但是模型模板改为 PeftMixedModel