当前位置: 首页 > news >正文

RAG与Fine-tuning-面试

1. Fine-tuning(微调)

是什么?

Fine-tuning(微调) 指的是在一个已经预先训练好的大型模型(例如 GPT-3.5, LLaMA, BERT 等)的基础上,使用特定的、通常规模较小的领域数据集,对模型的所有权重参数进行额外的训练。

你可以把它想象成:

一位知识渊博的通才(预训练模型),你聘请他来做一位特定领域的专家(例如法律顾问)。你通过让他大量阅读法律条文和案例(领域数据),来调整他大脑中的知识结构和思维方式(模型权重),使他最终成为一名优秀的律师(微调后的模型)。

核心思想:
  • 调整模型本身:直接修改模型的内部参数,让它“内在”地掌握新知识或技能。

  • 学习模式:不仅仅是记忆数据,而是学习数据中的模式、风格和特定领域的关联。

典型流程:
  1. 选择一个预训练模型:如 bert-base-uncased 或 gpt-3.5-turbo

  2. 准备领域数据:收集与你的任务高度相关的数据(例如,医疗记录、法律文档、你公司的客服问答对)。

  3. 进行训练:在领域数据上以较小的学习率继续训练模型,避免破坏模型原有的通用知识。

  4. 得到专属模型:得到一个专门为你任务优化过的新模型文件。

优点:
  • 效果强大:一旦微调成功,模型在该特定任务上的表现通常会非常出色和精准。

  • 风格模仿:可以很好地学习到数据的行文风格、格式和术语。

  • 无需上下文:使用时直接提问即可,不需要额外提供背景资料。

缺点:
  • 成本高:需要大量的计算资源(GPU/TPU)和时间来进行训练。

  • 知识更新困难:如果领域知识更新了(例如公司政策变了),需要重新收集数据并再次进行微调,流程繁琐。

  • 可能遗忘:如果微调数据量或方式不当,模型可能会“灾难性遗忘”它原有的通用知识。

  • 定制化模型:会生成一个新的模型文件,管理和部署成本较高。

适用场景:任务定义明确、领域固定、有大量高质量标注数据、且对效果要求极高的场景。例如:专业领域的自动文本生成、特定风格的诗歌创作、复杂的分类任务等。


2. RAG(检索增强生成)

是什么?

RAG(Retrieval-Augmented Generation, 检索增强生成) 是一种“开卷考试”的方法。它不修改模型本身的参数,而是在模型回答问题之前,先从外部知识库(如数据库、文档、网络)中检索出与问题相关的信息,然后将问题 + 检索到的信息一起交给大语言模型,让模型基于这些信息来生成答案。

你可以把它想象成:

同一位知识渊博的通才(预训练模型),但在他回答问题前,你先帮他去图书馆(知识库)里找到最相关的几本参考书(检索到的信息),然后把问题和这些书一起给他。他快速阅读这些参考资料后,结合自己的知识,给出一个既有通用知识又具备最新资料的准确答案。

核心思想:
  • 增强模型输入:保持模型不变,通过为其提供最新的、准确的上下文信息来提升回答质量。

  • 知识外置:将模型需要的事实性知识存储在外部知识库中,与模型的推理能力分离。

典型流程:
  1. 知识库准备:将你的文档(PDF, Word, 网页等)进行切分,转换成向量(Vector),存入向量数据库。

  2. 用户提问:用户提出一个问题。

  3. 检索:将用户的问题也转换成向量,并在向量数据库中搜索与之最相关的文本片段(Chunks)。

  4. 增强提示(Prompt):将检索到的相关文本片段和用户问题组合成一个新的提示,例如:“请根据以下信息回答问题:[检索到的信息] 问题: [用户的问题]”。

  5. 生成答案:将增强后的提示发送给大语言模型,模型根据提供的上下文生成最终答案。

优点:
  • 知识实时更新:只需更新外部知识库(如加入最新财报),模型就能立即基于最新信息回答问题,无需重新训练。

  • 成本低:无需昂贵的训练过程,主要是检索和调用API的成本。

  • 可信度高:模型给出的答案有据可查,可以提供引用来源,减少模型“幻觉”(胡编乱造)。

  • 保持通用性:模型本身的通用能力不会被破坏。

缺点:
  • 依赖检索质量:如果检索不到相关信息,或者检索到错误信息,模型就无法给出好的答案。

  • 上下文长度限制:受限于模型的上下文窗口长度,无法注入过多的参考信息。

  • 不是真正的“学会”:模型并没有真正内化这些知识,每次都需要依赖外部检索。

适用场景:知识需要频繁更新、需要溯源、或无法通过训练获取知识的场景。例如:智能客服(基于最新产品手册)、企业知识库问答、基于特定文档的分析等。


对比总结

特性Fine-tuning (微调)RAG (检索增强生成)
核心原理调整模型参数,让它学会新知识增强输入信息,为模型提供参考上下文
知识存储知识内化在模型权重中知识存储在外部的向量数据库或知识库中
知识更新困难,需要重新训练容易,直接更新知识库即可
成本高(训练成本)低( inference 成本)
可解释性低,是“黑箱”相对较高,可以追溯答案来源
抗幻觉相对较弱,依赖模型记忆相对较强,有事实依据
适用场景学习风格、格式、特定任务能力注入事实性、实时性、私有性知识

协同使用

实际上,RAG 和 Fine-tuning 并不是互斥的,它们可以强强联合,构建更强大的应用:

  1. 先用 Fine-tuning:在一个庞大的领域数据上微调一个基础模型,让它具备该领域的基础语言风格和任务理解能力(例如,微调成一个“法律语言模型”)。

  2. 再用 RAG:为这个微调后的专家模型配备一个实时更新的法律条文库。当遇到具体案件问题时,先检索最新法条,再让“专家模型”结合这些法条生成最终答案。


文章转载自:

http://Ogco4B5I.jkcpL.cn
http://e0nXLj26.jkcpL.cn
http://fqUIqhn6.jkcpL.cn
http://9GekKZUp.jkcpL.cn
http://dvPg1xq6.jkcpL.cn
http://pSzezooF.jkcpL.cn
http://VnmkTbxL.jkcpL.cn
http://6ImvRDNy.jkcpL.cn
http://zB6PJAoN.jkcpL.cn
http://2lOSuG0S.jkcpL.cn
http://ChnPFgt5.jkcpL.cn
http://TzTrSNFt.jkcpL.cn
http://vMPuikOW.jkcpL.cn
http://Rh0cRLkz.jkcpL.cn
http://dU1vpwXt.jkcpL.cn
http://SUD9ncnk.jkcpL.cn
http://4y2gWizf.jkcpL.cn
http://BGJVVZWB.jkcpL.cn
http://SUFk1Wlu.jkcpL.cn
http://AlnZnTIe.jkcpL.cn
http://3FBBf0zo.jkcpL.cn
http://CJO1FyK8.jkcpL.cn
http://gWneSMfK.jkcpL.cn
http://ZbDOXJXF.jkcpL.cn
http://D7ROM6Ez.jkcpL.cn
http://qhlFcGfW.jkcpL.cn
http://16KgDpYc.jkcpL.cn
http://i7PJNBf6.jkcpL.cn
http://kJP5v8yA.jkcpL.cn
http://WkrZUTsz.jkcpL.cn
http://www.dtcms.com/a/387004.html

相关文章:

  • Syslog服务
  • git clone vllm
  • 物联网的发展展望
  • PySpark处理超大规模数据文件:Parquet格式的使用
  • Spring Boot项目通过tomcat部署项目(包含jar包、war包)
  • 网络四层模型和七层模型的区别
  • 项目部署——LAMP、LNMP和LTMJ
  • 支付宝免押租赁平台源码
  • 不建议在 Docker 中跑 MySQL
  • PPT中将图片裁剪为爱心等形状
  • YOLO 模型前向推理全流程(以 YOLOv8 为例)
  • 【Redis】--集群
  • TRUNCATE还是DELETE?MySQL高效清空表的选择策略与实战指南
  • 【AI】AI评测入门(四):Evaluator Prompt拆解
  • Redis以`后台`方式启动方法
  • 【每日算法】找出字符串中第一个匹配项的下标 LeetCode
  • 【12】新国都 ——新国都 嵌入式 第一轮一面,技术面,校招,面试问答记录
  • 线程池-面试
  • 设计模式学习笔记(一)
  • 贪心算法应用:旅行商问题最近邻算法(TSP Nearest Neighbor)
  • 高系分七:软件工程
  • spark hive presto doris 对substr函数的差异
  • webpack5
  • M:Dijkstra算法求最短路径
  • C++11 atomic
  • 工作中真正常用的 git 操作
  • 【Java】P5 Java流程控制——分支结构详解
  • 下载 | Win10 2021官方精简版,预装应用极少!(9月更新、Win 10 IoT LTSC 2021版、适合老电脑安装)
  • 【面试场景题】交易流水表高qps写入会有锁等待或死锁问题吗
  • 嵌入式系统arm高级系统调试技能-24./proc/slabinfo 文件解读与内存异常分析