当前位置: 首页 > news >正文

DeepSeek实战--LLM微调

1.为什么是微调 ?

微调LLM(Fine-tuning Large Language Models) 是指基于预训练好的大型语言模型(如GPT、LLaMA、PaLM等),通过特定领域或任务的数据进一步训练,使其适应具体需求的过程。它是将通用语言模型转化为专用模型的核心方法。

2.微调适用于哪些场景?

1)领域专业化

  • 医疗:微调后的模型可理解医学论文、生成诊断建议。
  • 法律:准确引用法律条文,避免生成错误解释。

2)任务适配

  • 文本分类:将生成模型转为情感分析工具(输出正面/负面标签)。
  • 代码生成:训练模型遵循企业内部的编程规范和API调用规则。

3)风格控制

  • 模仿特定作者的写作风格(如鲁迅的文风、科技博客的简洁性)。
  • 生成符合品牌调性的营销文案(如正式、幽默、口语化)。

4)安全对齐

  • 过滤有害内容,避免模型生成暴力、偏见或虚假信息。
  • 确保输出符合伦理规范(如医疗建议需标注“非专业诊断”)。

3.有哪些微调的方法 ?

1)是模型供应商提供了商业模型的在线微调能力,比如 OpenAI 的 GPT 3.5 等模型就支持在线微调。这种模式是基于商业大模型的微调,因此微调后模型还是商业大模型,我们去使用时依然要按 token 付费。
在这里插入图片描述
2) 云厂商做的一些模型在线部署、微调平台。比如阿里云的"阿里云百炼",就具备模型的部署和训练功能。这种模式我们只需要租用云厂商的 GPU 算力即可。这些模型部署训练功能都是云厂商为了卖卡或大模型 而推出的增值服务。
在这里插入图片描述
3)如果你或你的公司手里有足够的卡,希望完全本地私有化部署和微调,此时就可以使用一些开源方案,部署一个微调平台来进行模型微调。

比如:目前开源社区非常火的一站式微调和评估平台–LLama-factory。
LLama-factory 是一款整合了主流的各种高效训练微调技术,适配市场主流开源模型,而形成的一个功能丰富、适配性好的训练框架。LLama-factory 提供了多个高层次抽象的调用接口,包含多阶段训练、推理测试、benchmark 评测、API Server 等,使开发者开箱即用。同时提供了网页版工作台,方便初学者迅速上手操作,开发出自己的第一个模型。
在这里插入图片描述

4.微调vs预训练

  • 预训练(Pre-training)

LLM 最初通过海量通用文本(如书籍、网页)进行训练,学习语言的通用规律(语法、语义、常识)。

目标:掌握“通用语言能力”,例如续写文本、回答问题。

  • 微调(Fine-tuning)

在预训练模型的基础上,用特定数据(如医疗报告、法律文书、客服对话)进一步训练,调整模型参数。

目标:让模型从“通才”变为“专才”,适配特定任务或领域。

5. 微调vs其它技术

在这里插入图片描述

相关文章:

  • 【算法基础】递归算法 - JAVA
  • 《Java高级编程:从原理到实战 - 进阶知识篇四》
  • 【c语言】数据在内存中的存储
  • [Linux开发工具]gcc/g++
  • wpf CommandParameter 传递MouseWheelEventArgs参数
  • [Vue]编程式导航
  • 回溯算法详解(Java实现):从组合到排列的全面解析
  • 延时启动windows中程序
  • MARM:推荐系统中的记忆增强突破
  • Cycleresearcher:通过自动化评审改进自动化研究
  • C# 方法(控制流和方法调用)
  • SQL笔记——左连接、右连接、内连接
  • pip命令
  • #Paper Reading# DeepSeek-R1
  • 在 Trae CN IDE 中配置 Python 3.11的指南
  • 修改ollama.service都可以实现什么?
  • 【网络编程】HTTP(超文本传输协议)详解
  • 头歌数据库课程实验(索引与数据库完整性)
  • 计算方法实验五 插值多项式的求法
  • AI超级智能体教程(五)---自定义advisor扩展+结构化json输出
  • 印官员称巴基斯坦在克什米尔实控线附近开火已致7死38伤
  • 五一假期上海楼市延续向好态势,成交量同比增加36%
  • 怎样正确看待体脂率数据?或许并不需要太“执着”
  • 沪幼升小网上报名明起开始,是否参与民办摇号怎么定?
  • 48岁黄世芳履新中国驻毛里求斯大使,曾在广西工作多年
  • 五一档观众最满意《水饺皇后》