当前位置: 首页 > wzjs >正文

intitle 无线网站制作如何利用问答类网站做推广

intitle 无线网站制作,如何利用问答类网站做推广,陈木胜怎么死的,网站发展规划在Hugging Face Transformers库中,微调后的模型保存与加载方式因微调方法(如常规微调或参数高效微调)而异。 一、常规微调模型的保存与加载 1、 保存完整模型 使用 save_pretrained() 方法可将整个模型(包含权重、配置、分词器…

在Hugging Face Transformers库中,微调后的模型保存与加载方式因微调方法(如常规微调或参数高效微调)而异。

一、常规微调模型的保存与加载

1、 保存完整模型
  • 使用 save_pretrained() 方法可将整个模型(包含权重、配置、分词器)保存到指定目录:
    保存模型、分词器、配置
model.save_pretrained("./my_finetuned_model")
tokenizer.save_pretrained("./my_finetuned_model")
  • 生成以下文件:
    pytorch_model.bin(或 tf_model.h5):模型权重

    config.json:模型结构配置

    tokenizer_config.json:分词器配置

2、加载模型
  • 通过 from_pretrained() 加载已保存的完整模型:
from transformers import AutoModelForSequenceClassification, AutoTokenizermodel = AutoModelForSequenceClassification.from_pretrained("./my_finetuned_model")
tokenizer = AutoTokenizer.from_pretrained("./my_finetuned_model")
3、将模型转换为 .safetensors 格式保存
# 指定保存目录并启用安全序列化
save_path = "./saved_model"
model.save_pretrained(save_path, safe_serialization=True)  
  • 执行后会在 saved_model 目录生成以下文件:

    model.safetensors(权重文件)
    config.json(模型配置)
    tokenizer.json(分词器配置,如有)

4、分片保存大模型‌

针对体积较大的模型,可分割为多个 .safetensors 文件:

# 设置分片尺寸(单位:MB)
model.save_pretrained(save_path, safe_serialization=True, max_shard_size="2GB")  
  • 生成文件名格式为 model-00001-of-00005.safetensors,并附带索引文件 model.safetensors.index.json。

二、参数高效微调(如LoRA)的保存与加载

1、仅保存适配器权重

使用LoRA等参数高效方法时,只需保存增量权重(通常几十MB):

  • 保存LoRA适配器
model.save_pretrained("./lora_adapter")
  • 生成文件:
    adapter_model.bin(或 .safetensors):适配器权重
    adapter_config.json:适配器配置(含基础模型路径)
2、加载适配器

加载适配器,与原模型合并:

from transformers import AutoModelForCausalLM
from peft import PeftModel, PeftConfig# 加载基础模型
base_model = AutoModelForCausalLM.from_pretrained("./base_model")  # 加载PEFT适配器
peft_config = PeftConfig.from_pretrained("./peft_adapter")
# 将adapter_model.safetensors中的低秩矩阵(如LoRA的A/B矩阵)加载到基础模型的指定位置(如q_proj、v_proj)
'''
PEFT的核心思想是通过冻结基础模型(如Llama-2、Mistral等)的原始参数,仅训练适配器层(如LoRA的低秩矩阵)。保存模型时:​基础模型权重:保持原始精度(如FP32)或量化状态(如4-bit NF4)
​适配器参数:以独立文件存储(adapter_model.safetensors)
​配置元数据:记录适配器类型、注入位置等(adapter_config.json)
'''
peft_model = PeftModel.from_pretrained(base_model, "./peft_adapter")
3、合并权重
  • 若需独立部署,可将LoRA权重合并到原模型中:
merged_model = model.merge_and_unload()
merged_model.save_pretrained("./merged_model")  # 保存完整模型(数GB)
  • 加载完整模型
# 直接加载完整模型
full_model = AutoModelForCausalLM.from_pretrained("./full_model") 

三、使用Trainer API的自动保存

通过 TrainingArguments 设置自动保存策略:

from transformers import TrainingArgumentsargs = TrainingArguments(output_dir="./results",save_strategy="epoch",  # 按epoch保存load_best_model_at_end=True  # 训练结束后加载最佳模型
)

训练完成后,最佳模型会保存在 output_dir 中

trainer = Trainer(model, args, ...)
trainer.train()

四、unsloth 微调后的模型 保存

基于 Unsloth 的微调模型保存具有高度灵活性

1、LoRA 适配器轻量级保存
model.save_pretrained("./lora_model")  # 仅保存适配器(约100MB)
tokenizer.save_pretrained("./lora_model")

特点:

  • 仅存储微调增量参数,适合迭代开发阶段

  • 需配合原始基础模型加载使用

  • 文件结构:adapter_model.bin + adapter_config.json

2、全量模型合并保存
  • 合并为FP16精度(生产环境推荐)
model.save_pretrained_merged(output_dir="merged_16bit",tokenizer=tokenizer,save_method="merged_16bit"
)
  • 4位量化版(显存敏感场景)
model.save_pretrained_merged(output_dir="merged_4bit",tokenizer=tokenizer,save_method="merged_4bit"
)
3、GGUF 高效推理格式导出
  • 标准Q8_0量化(平衡型)
model.save_pretrained_gguf("gguf_model", tokenizer)
  • 极致压缩Q4_K_M(移动端适用)
model.save_pretrained_gguf("gguf_model",tokenizer,quantization_method="q4_k_m"
)
4、多格式混合保存
  • 适配器 + 合并模型 + GGUF
model.save_pretrained("lora_model")  # 适配器
model.save_pretrained_merged(...)     # 16bit合并
model.save_pretrained_gguf(...)      # GGUF格式
http://www.dtcms.com/wzjs/798067.html

相关文章:

  • 成都网站软件定制开发云阳网站建设
  • 网站建设发展情况标书制作公司
  • 网站开发语言怎么查wordpress如何修改网页
  • 课程网站开发流程图及原型图房产网站怎么做
  • 福州cms建站网页搜索记录怎么恢复
  • 广州外贸型网站建设做网站每天都要花钱么
  • 泉州制作手机网站led灯外贸网站建设
  • 做网站题材百度最容易收录的网站
  • 网站排名哪家好域名状态查询
  • 做手机网站的好处优秀的网络广告案例
  • 北京网站建设公推广手机卡返佣平台哪个好
  • 心理咨询网站建设论文iis网站找不到网页
  • 中医院网站模板做网站哪个编辑器好用
  • 湘潭网站建设 都来磐石网络网站建设千套素材
  • 广西网站建设timkee珠海网站开发公司哪家好
  • 制作公司网站价格网站设计稿是怎么做的
  • 外贸网站支付接口wordpress页头图片
  • 推荐聊城做网站erp网站开发
  • 安阳网红打卡地快速排名优化系统
  • 珠海外贸网站建设数字化校园门户网站建设方案
  • 在国外网站做中国旅游推广莆田网站制作公司
  • 网站关键词排名快速提升电商营销策略
  • 品牌网站建设權威大蝌蚪徐州市工程建设交易平台
  • 贵阳网站建设建站解决方案中国建设人才网络学院
  • 岳西县住房和城乡建设局网站郑州网站建设价格
  • 有建设网站的软件吗厦门网站制作收费
  • 苏州网站建设公司鹅鹅鹅投资网站源码
  • 物流案例 网站绿色学校网站模板
  • 如何利用fortran语言建设网站企业所得税是指什么
  • 医疗类网站建设衡水做阿里巴巴网站