当前位置: 首页 > news >正文

Llama-Factory微调 Qwen2.5-VL-3B 模型

一、环境准备

1、硬件要求
  • GPU:LoRA 微调在不同精度下的显存需求如下。

    • 16-bit 精度(bf16 或 fp16:对于 7B 参数模型,LoRA 微调通常需要约 16GB 显存。Qwen2.5-VL-3B 是 3B 参数模型,显存需求会更低,估计在 8-12GB 显存 左右。

    • 8-bit 量化(QLoRA):显存需求进一步降低,3B 模型可能需要 4-6GB 显存

    • 4-bit 量化(QLoRA):显存需求更少,3B 模型可能仅需 3-4GB 显存

  • 内存:推荐 32GB RAM 或更高,以确保流畅运行。如果数据集较小,16GB RAM 可能也够用。

  • 存储:预留 50GB 以上空间(3B 模型未量化的权重文件约为 6-8GB。量化后的模型会更小)。

2、环境搭建

创建虚拟环境

# 安装Anaconda(若未安装),然后创建环境
conda create -n qwen-vl-finetune python=3.10 -y
conda activate qwen-vl-finetune

安装依赖

# 安装PyTorch(需匹配CUDA版本,以cu118为例)
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118# 克隆Llama-Factory最新代码(确保支持Qwen2.5-VL)
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory# 安装核心依赖(含多模态支持)
pip install -e ".[metrics]"  # 包含评估指标和多模态处理依赖# 安装模型下载工具(可选,用于从ModelScope/Hugging Face下载模型)
pip install modelscope transformers

二、下载 Qwen2.5-VL-3B 模型

Qwen2.5-VL-3B 需从官方渠道获取,推荐使用 ModelScope 或 Hugging Face

http://www.dtcms.com/a/342904.html

相关文章:

  • 人工智能未来趋势如何?
  • 【秋招笔试】2025.08.19百度秋招机考第一套
  • 算法训练营day57 图论⑦ prim算法精讲、kruskal算法精讲
  • 前端无感刷新 Token 的 Axios 封装方案
  • Github 下载加速--2025-08-21 亲测好用
  • 神经网络(Neural Network, NN)
  • gemini cli 用命令行玩转 AI 多模态开发
  • 网络安全大模型测试指标体系设计思路
  • 我与 ChatGPT 5:一段时间的深度编程体验与全栈评测
  • Zabbix状态图标灯显示
  • K8s部署dashboard平台和基本使用
  • MySQL:MVCC机制及其在Java秋招中的高频考点
  • AutoTrack-IR-DR200平台的构建与实现过程
  • python采集义乌购(yiwugo)商品详情API接口,json数据返回
  • 透射TEM 新手入门:快速掌握核心技能
  • 【每日一道算法题 day5】盛最多水的容器 (Container With Most Water) - LeetCode 题解
  • 深度学习之NLP基础
  • 【React】tab切换功能和排序实现,classnames工具优化类名控制
  • Java基础环境jdk和maven安装及配置+开源项目下载及编译打包教程
  • Flutter如何通过GlobalKey调用组件内的方法
  • 微服务的编程测评系统13-我的竞赛列表-elasticSearch
  • 与H5交互,与flutter的交互
  • 求解三位数
  • 深度解析DeepSeek V3.1 :6850 亿参数开源模型如何以 71.6% 编码得分、68 倍成本优势重构全球 AI 竞争格局
  • 使用postman模拟http请求webservice服务
  • 企业如何用外贸进销存系统管理好库存产品?
  • Docker安装elasticsearch以及Kibana、ik分词器
  • 从零开始打造 OpenSTLinux 6.6 Yocto 系统(基于STM32CubeMX)(十三)
  • 相似图像处理程序
  • mac的m3芯使用git