当前位置: 首页 > news >正文

LlaMA_Factory实战微调VL大模型

VL微调数据格式文件样例如下
在这里插入图片描述
一:微调数据集准备
1、制作微调数据集
在这里插入图片描述

首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。
2、确认微调模型认知
在这里插入图片描述

打开identity.json文件,修改模型初步认知,确认微调后模型的名称和开发者,如下。
3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可
在这里插入图片描述

"****_vl_data(图片文件夹名称)": {"file_name": "****_vl_data.json(对应的json文件名称)","formatting": "sharegpt","columns": {"messages": "messages","images": "images"},"tags": {"role_tag": "role","content_tag": "content","user_tag": "user","assistant_tag": "assistant"}}

二:启动训练
1、先下载模型文件

2、web端启动命令

llamafactory-cli webui

配置参数
在这里插入图片描述
在这里插入图片描述
启动训练后使用显存大小:50924MiB(这个有大佬知道正常吗,7B参数按照这个训练要这么大的显存?),143条数据,15Epoch所用时间为:40min
训练曲线如下所示
在这里插入图片描述
但是感觉没怎么收敛啊,准备在加几轮训练一下
修改参数:参数部分可参照该链接,说的很详细

https://blog.csdn.net/qq_62223405/article/details/149500255?fromshare=blogdetail&sharetype=blogdetail&sharerId=149500255&sharerefer=PC&sharesource=weixin_42225889&sharefrom=from_link

在这里插入图片描述
在15个epoch时模型训练稳定
在这里插入图片描述
中断训练,然后导出模型文件进行测试,完成训练

http://www.dtcms.com/a/317833.html

相关文章:

  • 【数据分享】西藏土壤类型数据库
  • AlphaEarth模型架构梳理及借鉴哪些深度学习领域方面的思想
  • [AI 生成] Spark 面试题
  • 【深度学习】Graph Transformer Networks(GTN,图变换网络)
  • Linux 中 Git 操作大全
  • 测试单节点elasticsearch配置存储压缩后的比率
  • cacti
  • 深入理解C++中的stack、queue和priority_queue
  • 部署 Zabbix 企业级分布式监控笔记
  • C语言高级编程技巧与最佳实践
  • 学习bug
  • R4周打卡——Pytorch实现 LSTM火灾预测
  • 人工智能——深度学习——认识Tensor
  • 工业禁区人员闯入识别准确率↑29%:陌讯动态融合算法实战解析
  • 如何解决pip安装报错ModuleNotFoundError: No module named ‘gensim’问题
  • 股票T0程序化交易,高频交易
  • 队列很多时,为什么RocketMQ比Kafka性能好?
  • 河南萌新联赛2025第四场-河南大学
  • 【PZSDR P201MINI】 P201Mini 软件无线电开发板:紧凑型射频系统的性能标杆
  • OpenSCA用户访谈第二期:互联网科技公司如何用OpenSCA“锁”住开源风险?
  • 模块--继电器
  • 进阶向:Python开发简易QQ聊天机器人
  • 013 HTTP篇
  • 网络原理——初识
  • 【Go】P3 Go语言程序结构
  • 从零开始学AI——12.1
  • 数字驾驶舱是什么意思?如何搭建驾驶舱
  • Java 集合工具类
  • Solidity:接口与实现的“契约”关系研究,以Uniswap V3为例
  • 《算法导论》第 6 章 - 堆排序