当前位置: 首页 > news >正文

使用MS-SWIF框架对大模型进行SFT微调

MS-SWIFT训练框架
Qwen3最佳实践

GPU资源:Tesla V100S x4(32G x 4)
在这里插入图片描述

底座模型:Qwen3-1.7B
SFT数据集:
alpaca-gpt4-data-en
alpaca-gpt4-data-zh
自我认知微调数据集

训练

export CUDA_VISIBLE_DEVICES=0,1,2,3

swift sft
–model Qwen/Qwen3-1.7B
–train_type lora
–dataset ‘AI-ModelScope/alpaca-gpt4-data-zh#500’
‘AI-ModelScope/alpaca-gpt4-data-en#500’
‘swift/self-cognition#500’
–torch_dtype bfloat16
–num_train_epochs 1
–per_device_train_batch_size 1
–per_device_eval_batch_size 1
–learning_rate 1e-4
–lora_rank 8
–lora_alpha 32
–target_modules all-linear
–gradient_accumulation_steps 16
–eval_steps 50
–save_steps 50
–save_total_limit 2
–logging_steps 5
–max_length 2048
–output_dir output
–system ‘You are a helpful assistant.’
–warmup_ratio 0.05
–dataloader_num_workers 4
–model_author swift
–model_name swift-robot

推理

swift infer
–adapters output/vx-xxx/checkpoint-xxx
–stream true
–temperature 0
–max_new_tokens 2048

swift infer
–adapters /workspace/codes/oss/ms-swift/output/v3-20250905-012245/checkpoint-94
–stream true
–temperature 0
–max_new_tokens 2048

在这里插入图片描述

merge-lora并使用vLLM进行推理加速

swift infer
–adapters output/vx-xxx/checkpoint-xxx
–stream true
–merge_lora true
–infer_backend vllm
–max_model_len 8192
–temperature 0
–max_new_tokens 2048

swift infer
–adapters /workspace/codes/oss/ms-swift/output/v3-20250905-012245/checkpoint-94
–stream true
–merge_lora true
–infer_backend vllm
–max_model_len 8192
–temperature 0
–max_new_tokens 2048

报错:ValueError: Bfloat16 is only supported on GPUs with compute capability of at least 8.0. Your Tesla V100S-PCIE-32GB GPU has compute capability 7.0. You can use float16 instead by explicitly setting the dtype flag in CLI, for example: --dtype=half.
原因:用 Bfloat16(Brain Floating Point 16) 数据类型来节省显存、加速训练,需要GPU 计算能力 ≥ 8.0

使用SGlang推理

SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path /workspace/codes/oss/ms-swift/output/v3-20250905-012245/checkpoint-94-merged --reasoning-parser qwen3

报错:RuntimeError: SGLang only supports sm75 and above.
原因:SGLang 只支持计算能力(Compute Capability)为 sm_75 及以上的 GPU,你的 GPU 的计算能力低于 sm_75,因此无法运行

模型发布

swift export
–adapters /workspace/codes/oss/ms-swift/output/v3-20250905-012245/checkpoint-94
–push_to_hub true
–hub_model_id ‘lzhawesome/my-lora-model-Qwen3-1.7B’
–hub_token ‘xxxxx’
–use_hf false


文章转载自:

http://1BsShyv0.ymwnc.cn
http://Z0Lj7ogz.ymwnc.cn
http://rRYybGpe.ymwnc.cn
http://5nLOTtRN.ymwnc.cn
http://T9QK1b1T.ymwnc.cn
http://qZBrRUj8.ymwnc.cn
http://24jDRWke.ymwnc.cn
http://Gcngww09.ymwnc.cn
http://HSrtEt1T.ymwnc.cn
http://ldcDtCcF.ymwnc.cn
http://DPf490vX.ymwnc.cn
http://h2Fo0uEF.ymwnc.cn
http://KcWBb1Su.ymwnc.cn
http://1HbUysmS.ymwnc.cn
http://NwEYEqDp.ymwnc.cn
http://XBm8awFc.ymwnc.cn
http://xsMhJziL.ymwnc.cn
http://obAJpSSa.ymwnc.cn
http://xh9kbNci.ymwnc.cn
http://DVWW4Yue.ymwnc.cn
http://4GpM0ZEb.ymwnc.cn
http://3i7eofuY.ymwnc.cn
http://F1s56fJo.ymwnc.cn
http://Xwork0XZ.ymwnc.cn
http://JvHh6dHY.ymwnc.cn
http://YYSjQkVP.ymwnc.cn
http://zUT6Zjz3.ymwnc.cn
http://lJ81Gfwj.ymwnc.cn
http://4U4w7t0y.ymwnc.cn
http://AeE5zhwT.ymwnc.cn
http://www.dtcms.com/a/369098.html

相关文章:

  • 使用PyTorch构建卷积神经网络(CNN)实现CIFAR-10图像分类
  • 非靶向模型中毒攻击和靶向模型中毒攻击
  • 步步高S9:AI重塑学习体验,定义智能教育新范式
  • 与优秀者同行,“复制经验”是成功的最快捷径
  • 2025 IT行业含金量超高的8大证书推荐
  • 《Keil 开发避坑指南:STM32 头文件加载异常与 RTE 配置问题全解决》
  • 基于STM32设计的激光充电控制系统(华为云IOT)_277
  • Kubernetes(四):Service
  • Android studio 既想拍照又想拿到Bitmap
  • 自由泳动作分解与技巧详解
  • 音响皇帝BO,牵手全球第一AR眼镜雷鸟,耳机党坐不住了?
  • Redis 高级数据结构:Bitmap、HyperLogLog、GEO 深度解析
  • 深度学习——迁移学习
  • 【uniapp】打包为h5在保留头部标题的同时配置网站标题不跟随页面路由更新
  • uni-app iOS 日志与崩溃分析全流程 多工具协作的实战指南
  • bat脚本- 将jar 包批量安装到 Maven 本地仓库
  • 力扣hot100:旋转图像(48)(详细图解以及核心思路剖析)
  • U盘文件系统转换指南:方法、原因与注意事项
  • AI智能优化SEO关键词策略实战
  • 共享线程池对@Scheduled定时任务的影响
  • 一张图看懂AI时代后端系统架构
  • 人工智能学习:什么是GRU模型
  • 高效管理网络段和端口集合的工具之ipset
  • 为什么要用VR全景?5个答案告诉你
  • 【Linux学习笔记】信号的深入理解之软件条件产生信号
  • 前端事件循环:代码世界的“排队”艺术!
  • JP4-7-MyLesson后台前端(一)
  • PPIO上线kimi-k2-0905,编码能力大幅提升
  • UniApp 页面通讯方案全解析:从 API 到状态管理的最佳实践
  • 嵌入式|Linux中打开视频流的两种方式V4l2和opencv