当前位置: 首页 > news >正文

LLM实践(二)——基于llama-factory的模型微调

目录

  • SFT的lora微调
    • 1、环境部署
    • 2、准备数据与配置
    • 3、创建微调配置文件:yaml配置文件
    • 4、Lora微调:基于lora微调的yaml配置文件启动lora微调
    • 5、启动模型:基于llama-factory自带的功能
    • 6、模型调用、推理:使用curl命令

SFT的lora微调

1、环境部署

  • 还是要安装一个单独的conda环境(python=3.10),激活环境;
  • 下载llama-factory的GitHub项目:https://github.com/hiyouga/LLaMA-Factory
    • 适合当前过程的llama-factory版本:https://download.csdn.net/download/lucky_chaichai/90535396
  • 安装依赖:pip install -r requirements.txt;
  • 安装llama-factory的工具:pip install -e “.[torch,metrics]”

2、准备数据与配置

  • 需要根据LLaMA-Factory/data/中提供的样例准备数据,为json格式,我准备的如下(文件名:yanxue_langtext_sftdata.json):
[
    {
   
        "instruction": "你是一名“行业调研专家”,请生成一份关于“空气净化器”的行业调研报告;\n输出要求:",
        "output": "气净化器行业调研报告\n一、空气净化器行业发展及政策环境\n1. 空气净化器行业发展现状\n空气净化器进入中国市场时属于小众产品……"
     }
]   
  • 要根据数据的具体形式,在LLaMA-Factory/data/data_info.json中配置数据信息,如下:
{
   
 ……,
"yanxue_zs": {
    # 数据集名称,在后续进行微调时,在微调的yaml配置文件中需要使用,即dataset的值
    "file_name": "yanxue_langtext_sftdata.json", # 上面准备的数据文件名
    "columns": {
    

相关文章:

  • OpenGL绘制文本
  • SQL Server常见问题解析
  • WPF ContentTemplate
  • Pytorch学习笔记(七)Learn the Basics - Optimizing Model Parameters
  • C++——重载
  • Linux系统-ls命令
  • 极光优化PLO-Transformer-LSTM多变量时序
  • 具身系列——Diffusion Policy算法实现CartPole游戏
  • Jetpack LiveData 使用与原理解析
  • Hosts文件屏蔽广告/恶意网站的原理详解
  • Ansys Zemax | 联合Speos实现供应商与OEM交换黑盒光学系统
  • MongoDB 创建数据库
  • 3个版本的Unity项目的异同
  • vue3 ts 封装axios,配置axios前置拦截器,让所有axios请求携带token
  • 使用docker部署springboot、Vue分离项目,部署到主路径
  • Docker技术系列文章,第八篇——Docker 安全基础
  • 华鲲振宇天工TG225 B1国产服务器试装openEuler22.03 -SP4系统
  • LabVIEW多CAN设备连接故障
  • SICAR 标准 KUKA 机器人标准功能块说明手册
  • 激光线检测算法的FPGA实现
  • 诗词文赋俱当歌,听一听古诗词中的音乐性
  • 独家丨申万宏源研究所将迎来新所长:首席策略分析师王胜升任
  • 对话|男篮国手杨瀚森:参加NBA选秀,去更大的舞台追梦
  • 巴黎奥运后红土首秀落败,郑钦文止步马德里站次轮
  • 【社论】以“法治之盾”护航每一份创新
  • 神舟二十号载人飞船与空间站组合体完成自主快速交会对接