lora与模型的关系(小白入门了解)
lora是什么
lora的全称叫Low-Rank Adaptation of Large Models,意思是只训练模型中的一小部分权重,而不是动整个大模型,也可以简单的认为是对大模型的微调。
lora与大模型的关系
lora与大模型的关系可以举几个例子先有一个大概的理解:
把大模型比作某个开发软件,那么lora有点类似这个开发软件的插件,可以基于这个开放软件,进行一些额外的功能(也不完全正确)
把大模型比做一个人,lora是大模型的记忆补丁,大模型是一个遗忘速度非常快的人,因为这个人会的知识太多了,每次都无法在有限的时间内想回来这件事,于是,在这个人的面前,贴了一个记忆补丁,一旦做这件事,他就可以通过记忆补丁的时候,快速回忆起相关的技能,精确的完成这项任务。
为什么需要用lora
看这个表就知道了
对比项 | 训练整个模型(小的) | 用LoRA 微调 |
---|---|---|
训练时间 | 几天~几周 | 几十分钟~几小时 |
显存需求 | 40GB+ | 6~12GB一般足够 |
文件大小 | 常用的一般在10GB+ | 普遍在几百MB左右 |
是否破坏原模型 | 可能损坏 | 不会,安全叠加、随时关闭 |
另一方面,下载5-7个好用的大模型需要100GB左右,但是下载100个lora往往不到50GB,大模型配合lora使用,可以极大节省资源