当前位置: 首页 > news >正文

LoRA modules_to_save解析及卸载适配器(62)

LoRA modules_to_save解析及卸载适配器

    • modules_to_save解析
    • PEFT 模型中卸载适配器
    • 在需保存模块列表中,还可以添加什么

modules_to_save解析

还有一个配置参数可用于指定你希望保持 “活跃且可训练” 的层列表 —— 也就是说,这些层会被设为可训练状态。更便捷的是,你无需提供完整的层全称列表;该参数会通过正则表达式,将你列表中的名称与模型中的层进行匹配。因此,若我们确实希望让层归一化层(layer norm)保持可训练,只需在列表中添加 “layer_norm” 即可。

PEFT 模型中卸载适配器

我们应始终将配置应用于 “全新的” 模型。get_peft_model()函数会在原地修改底层模型,因此若我们使用多个不同的配置对象重复调用该函数,这些配置会相互混淆。我们固然可以重新加载量化模型并重新准备,但更简单的方法是直接从现有的 PEFT 模型中卸载(移除)适配器。有关unload()方法的更多细节,请参阅 “Managing Adapters”(适配器管理)章节。

_ = peft_model.unload()

在典型的工作流程中,我们只需加载一次配置,这样就无需采用这种变通方法了。

以下是完全实现该操作的示例:

http://www.dtcms.com/a/355455.html

相关文章:

  • C语言学习-24-柔性数组
  • 科技守护古树魂:古树制茶行业的数字化转型之路
  • TikTok 在电脑也能养号?网页端多号养号教程
  • 损失函数,及其优化方法
  • [Ai Agent] 从零开始搭建第一个智能体
  • 麒麟操作系统挂载NAS服务器
  • 搜维尔科技核心产品矩阵涵盖从硬件感知到软件渲染的全产品供应链
  • 12KM无人机高清图传通信模组——打造未来空中通信新高度
  • hintcon2025 Pholyglot!
  • 辅助驾驶出海、具身智能落地,稀缺的3D数据从哪里来?
  • kubernetes-ubuntu24.04操作系统部署k8s集群
  • 吃透 OpenHarmony 资源调度:核心机制、调度策略与多设备协同实战
  • Linux(二) | 文件基本属性与链接扩展
  • ManusAI:多语言手写识别的技术革命
  • SLF4J和LogBack
  • Linux 命令使用案例:文件和目录管理
  • 从0开始学习Java+AI知识点总结-27.web实战(Maven高级)
  • Python Imaging Library (PIL) 全面指南:PIL基础入门-图像滤波与处理技术
  • python自动化测试工具selenium使用指南
  • AS32S601抗辐照MCU在商业卫星EDFA系统中的应用研究
  • 基于 Selenium 和 BeautifulSoup 的动态网页爬虫:一次对百度地图 POI 数据的深度模块化剖析
  • 033 日志
  • 硬件三人行--运算基础篇
  • 怎样将Word转成高质量的DITA
  • 【涂鸦T5】1. 环境搭建和demo
  • 量化策略布林带解读
  • Java Spring(1)- Spring基础
  • AI提升SEO关键词效果新策略
  • PostgreSQL【应用 04】加解密扩展 pgcrypto 使用实例(加密、导出、导入、解密流程说明)
  • 信息技术发展