yolo v8n模型小样本微调总结
目录
一、概述
二、分析
🧩 场景比喻:教小孩认猫
🥶 第一种(训练效果差的那组)
🧠 第二种(训练效果好的那组)
三、参数总结对比
四、总结
1) 预训练模型与冻结(transfer learning & freeze)
2) 训练轮数与学习率(epochs / lr0 / lrf / optimizer)
3) Batch size 与 BatchNorm(batch=1)
4) 数据增强(augmentation)
5) 正则化(dropout)
6) 随机种子(seed)和 workers
7) 其它细节
一、概述
最近在使用yolo v8n微调模型时候,由于我只是自己手动标注了10张样本然后进行微调训练。出现了微调效果很差的情况,下边把参数都打印出出来对比。
脚本一:
results = model.train(data=DATA_YAML,epochs=30,imgsz=640,batch=32, # 显存不够就调小,如 16/8workers=0, # Windows 通常设 0;Linux 可设 2-8device=0, # CUDA:0;若CPU:device='cpu'optimizer="auto", # auto会覆盖lr0/momentum,自动挑选优化器与学习率lr0=1e-4, # 若你想固定优化器(如 sgd/adamw)再手动调整lr0/lrflrf=0.01,dropout=0.25, # 可留可去,小模型可略微正则seed=42,# resume=False,# project="runs/detect",# name="train_det",# exist_ok=True,)
<