当前位置: 首页 > news >正文

小白的LLM学习记录(一)

主要技术依次:

预训练基础模型——基座
微调SFT——
检索增强生成RAG——
prompt提示词——顶端策略

为什么微调和RAG?
通用大模型在训练时不会包括所有数据集,因而在特定领域与隐私项目中不能很好的解决问题,微调和RAG即在通用大模型的基础上,对模型的精细化准确回答进行优化保证。

什么是RAG?
RAG——Retrieval-Augmented Generation

检索+增强+生成——即LLM+Search system
用户提出问题后先进入一个数据库的检索环节,再生成prompt提示词,进入LLM,然后由LLM生成回答,具体的流程如下图:

主要涉及的技术内容不包括大模型LLM本身结构的修改,而是直接在前面构架一个检索框架。这个检索框架的知识库一般是文件或者文档资料,构建为向量数据库存储,索引构建是重要环节。主要的技术步骤包括:
文件加载load;
文本切片
『简单文本通过换行符,空格等,复杂文本则基于NLP工具(这里还不知道是什么)/基于BERT中的NSP训练任务,设置相似度阈值,按顺序判断是否需要截断(也不知道是什么)』
Embedding编码(这里需要一个算法将输入转为向量,而且在整个RAG中这种转化规则必须保持一致,即用户问题的转换和对数据文件的转换编码策略要一致);
存入向量数据库

但是RAG会存在问题:
1.检索片段不全面引起的回答偏差;——如何优化?重排序/分布式部署
2.延时问题:如何提速

什么是微调SFT?

应用的场景一般是问答式模型部署,例如心理咨询和法律顾问
用的是数据标签归类,对模型LLM结构调整
选择微调的模型一般8B左右,中等项目70B已经非常可以。



 

相关文章:

  • Linux动态库静态库总结
  • 运行Spark程序-在shell中运行1
  • 如何通过外卖系统源码打造本地O2O外卖配送生态?全链路技术解析
  • Java练习题:String
  • python文件打包成exe文件
  • SQLMesh信号机制详解:如何精准控制模型评估时机
  • 笔记项目 day02
  • 【日撸 Java 300行】Day 14(栈)
  • Pytorch学习笔记(二十二)Audio - Audio I/O
  • 数据工具:数据同步工具、数据血缘工具全解析
  • 最终一致性和强一致性
  • 大模型—— FastGPT 知识库无缝集成到 n8n 工作流 (基于 MCP 协议)
  • 论文《Collaboration-Aware Graph Convolutional Network for Recommender Systems》阅读
  • NY182NY183美光固态颗粒NY186NY188
  • 推荐几个常用免费的文本转语音工具
  • 王炸组合!STL-VMD二次分解 + Informer-LSTM 并行预测模型
  • 物理:从人体组成角度能否说明基本粒子的差异性以及组织结构的可预设性?
  • 传输层协议UDP
  • Logisim实验--华科计算机组成原理(保姆级教程) 头歌-存储系统设计实验(汉字库存储芯片扩展实验、MIPS寄存器文件设计)
  • 编译docker版openresty
  • 马上评|“为偶像正名”的正确做法是什么
  • “典孝急乐批麻蚌赢”:互联网“八字真言”与当代赛博赢学
  • 中国-拉共体成员国重点领域合作共同行动计划(2025-2027)
  • 优化营商环境,服务上海“五个中心”建设,北外滩有何举措?
  • Manus向全球用户开放注册
  • 马上评丨未成年人“擦边”短视频岂能成流量密码