当前位置: 首页 > wzjs >正文

免费海外网站cdn加速北京网站定制制作

免费海外网站cdn加速,北京网站定制制作,wordpress font awesome,青海免费网站建设文章目录 0、缘起一、如何对大模型进行微调二、模型微调实战0、准备环境1、准备数据2、模型微调第一步、获取基础的预训练模型第二步:预处理数据集第三步:进行模型微调第四步:将微调后的模型保存到本地4、模型验证5、Ollama集成部署6、结果测试三、使用总结AI是什么?他应该…

文章目录

  • 0、缘起
  • 一、如何对大模型进行微调
  • 二、模型微调实战
    • 0、准备环境
    • 1、准备数据
    • 2、模型微调
      • 第一步、获取基础的预训练模型
      • 第二步:预处理数据集
      • 第三步:进行模型微调
      • 第四步:将微调后的模型保存到本地
    • 4、模型验证
    • 5、Ollama集成部署
    • 6、结果测试
  • 三、使用总结

AI是什么?他应该是个工具,是一个让你更敢于去闯的工具,而不应该是让人偷懒的工具。

0、缘起

​ 一次偶然的机会,想要试试火爆的Ollama,在本地搭个AI大模型玩玩。于是,随意跑了一下大名鼎鼎的Llama3.2模型。当然,跑的是1b参数的小版本。结果,执行的效果是这样的。

在这里插入图片描述

在这里插入图片描述

​ 为什么会这样?到介绍页上看了看。原来llama模型确实没有用中文训练。
在这里插入图片描述
连泰语都能支持,中文却没有支持。这能忍?不行。我受不了。说什么也要让Llama见识见识中文。于是,决定要微调一个懂中文的Llama出来。但是,没有机器,不懂Python,更不懂什么调优框架。这事能不能成?
没事,有AI。一点点问AI,一点点调代码,于是有了这一次尝试。

一、如何对大模型进行微调

​ AI大模型的能力来自于他所学习过的数据,市面上的这些AI大模型产品也不例外。因此,在一些特定的业务场景,市面上这些AI大模型产品并没有学习过相关的业务知识,因此也就无法提供高质量的答案。比如Llama,并没有针对中文进行微调,因此,他虽然也能用中文进行问答,但是答复中总是带上一些鸟语。

​ 提升AI大模型特定领域内的理解能力的方法有两种。一种是RAG。在跟大模型交互时给他提供更多的相关数据。但这种方式就相当于是要让AI大模型回答问题的时候临时抱佛脚,大部分场景下效果也可以,但是终究治标不治本。另一种直击本质的方法就是微调。一些大型企业,使用海量数据,投入巨大资源,从头开始训练出一些基础模型,成为预训练模型,Pre-Training。而微调就是在这些预训练模型的基础上,再投入少量资源,喂养额外的数据,从而训练出更专业的私有大模型。
说人话,一老外要到长沙来玩,要找个翻译。从Englinsh翻译成中文的专业翻译好找,各种专业院校量大管饱,但是从English翻译成长沙话的个性翻译就没那么好找了。解决方案有两种,一种是就找个专业翻译。每次问他问题时,再给他配个小字典《长沙人的自我修养》,查查普通话怎么翻译成中文。这就是RAG。另一种就是考察一批专业翻译,在这些专业翻译中间挑一个懂长沙话的个性化翻译出来。这就是微调。
微调的方式有很多种。一种是让一个专业的大学生从头开始学习一遍长沙话。这就相当于全参微调。调整大模型的所有参数。代价自然是很大的。另一种就是找一个专业翻译,让他学学长沙话怎么讲。这样对专业翻译的英语能力不会有多大影响,只是给他叠加了一种新的方言。这样的话,学习的代价就没有那么大。而这就是Lora微调的思路。
Lora全称是Low-Rank Adaptation,低秩适配。他的核心思想是不调整原有大模型,只是通过叠加较小的低秩矩阵来对大模型进行微调。
在这里插入图片描述
这个过程可以大致的理解为: 对一个m*n(m和n都很大)的原始大模型参数矩阵,叠加一个 m*k的矩阵A和k*n的矩阵B(k可以比较小)。这样矩阵A和矩阵B相乘就可以保持和原有矩阵相同的计算结果。然后大模型在计算时,只需要在原有大模型参数矩阵的基础上,叠加 矩阵A*矩阵B的结果,就可以产生出一个新的大模型参数矩阵的结果。而矩阵A和矩阵B因为k(也就是秩)比较小,所以要调整的参数也就小很多。
这个过程听起来很复杂,不过其实落地到实践层面,已经有很多现成的实现工具了。而且,就算工具不会,只要清楚是在干什么事情,代码让AI来写,也没什么问题。接下来我们就需要使用Lora算法,给之间使用过的Llama3.2:1b大模型喂养一些中文数据,从而让他能够更好的理解中文。

二、模型微调实战

0、准备环境

要进行微调,首先需要评估手边的资源够不够。通常,一个简单的经验是使用Lora微调需要大概准备模型大小三倍的显存,这样就可以开始微调了。Llama3.2:1b模型的大小是1.3GB,所以,通常有个4G左右的显存就可以进行微调了。所以这个实验,当然你也可以动手玩玩。

这是最小资源,训练时,当然资源是越多越好。如果模型比较大,本地资源不够,那也可以租借一些公用的计算力平台,例如autodl.网址 https://www.autodl.com/home 。 这是目前比较便宜的一个平台。

然后,需要搭建微调的开发环境。目前微调的框架都还是基于Pytorch这些Python框架,所以,需要搭建Python开发环境。
Python环境搭建建议使用Anaconda工具直接搭建,比较方便。接下来创建Python环境。

# 创建Python运行环境
conda create -n llama3_lora python=3.10
conda activate llama3_lora
# 使用conda-forge通道 一个社区运营的Conda频道,下载比较快
conda config --add channels conda-forge
conda config --set channel_priority strict# 如果之前安装过这个环境,可以删除重建  
conda deactivate  
conda env remove -n llama3_lora  
conda create -n llama3_lora python=3.10 -y  
conda activate llama3_lora  # 安装pytorch  
conda install -c conda-forge pytorch torchvision torchaudio -y  # 安装其他依赖  
pip install transformers datasets peft accelerate  
pip install bitsandbytes modelscope  # 确保使用MPS后端  
pip install --upgrade --force-reinstall \torch \torchvision \torchaudio  

安装完成后,可以先执行一个简单的python代码检测一下环境

import sys
import torch# 打印详细的系统和torch信息
print("Python 版本:", sys.version)
print("Torch 版本:", torch.__version__)
print("CUDA 是否可用:", torch.cuda.is_available())
print("MPS 是否可用:", torch.backends.mps.is_available())

这里主要是检查显卡是否支持CUDA。理论上主流的N卡都支持CUDA,这就可以开始训练了。Mac的M系列芯片将内存和显存整合到了一起,需要使用MPS设备进行计算。

1、准备数据

这次微调的数据就采用Huggingface上“臭名昭著”的ruozhiba数据。看看大名鼎鼎的Llama能不能经得起弱智吧的摧残。
在这里插入图片描述
这次采用的是一个包含1.5K记录的小样本。直接下载到本地即可。

2、模型微调

接下来的微调过程,都是在我手边一台Mac电脑上完成的,所有代码也全是AI写出来的,所以,只负责解读思路,不保证代码质量。其实所有的模型微调思路都差不多

第一步、获取基础的预训练模型

​ 这里采用国内的ModelScope社区提供的 LLM-Research/Llama-3.2-1B 模型。

1、对于大模型,通常可以认为参数越大,能力就越强。通常,简单关注一下各个大模型的benchmark基准测试后,就可以根据你手头的资源,选择适合的参数量版本就可以了。

2、ModelScope是一个大模型的大超市,即提供了开源的大模型以及高质量数据集,同时也提供了大模型测试、微调的一系列工具。如果需要更大规模的模型,可以选择Huggingface。不过毕竟是国外的平台,对国内不太友好。

​ 使用ModelScope社区的模型可以通过他提供的工具引入。

pip install modelscope

​ 然后,就可以将模型下载到本地。

from modelscope import snapshot_download# 从ModelScope下载模型--第一次比较耗时
model_path = snapshot_download(

文章转载自:

http://ajVRGDHG.tkyry.cn
http://ty7i9NNj.tkyry.cn
http://AaoYLskf.tkyry.cn
http://J8DIGZJM.tkyry.cn
http://tblB33MB.tkyry.cn
http://c0alRH7k.tkyry.cn
http://VjgoXRCQ.tkyry.cn
http://TY2bG6gl.tkyry.cn
http://OhvQbxEK.tkyry.cn
http://FpFdXwIY.tkyry.cn
http://26ZFQG5f.tkyry.cn
http://DfWKsqjc.tkyry.cn
http://t3XQ4188.tkyry.cn
http://hATCNPOL.tkyry.cn
http://DZMN3HQL.tkyry.cn
http://Ec9nXkAe.tkyry.cn
http://sgmt9F1Z.tkyry.cn
http://mcyZZPOd.tkyry.cn
http://RHaAQlN9.tkyry.cn
http://hZVtRr3c.tkyry.cn
http://IEhpqoNB.tkyry.cn
http://BAKy6PJk.tkyry.cn
http://ZcGAoB13.tkyry.cn
http://vGQf8Wd3.tkyry.cn
http://UVa21Xj9.tkyry.cn
http://zYUKp7dD.tkyry.cn
http://kMIhoObX.tkyry.cn
http://OR3hwjmW.tkyry.cn
http://UgCiiJfk.tkyry.cn
http://F0dROZTA.tkyry.cn
http://www.dtcms.com/wzjs/680737.html

相关文章:

  • 大学生做外包项目的网站铜川哪些公司需要网页电商设计师
  • 网站整站模板下载同一ip大量访问网站
  • 课程注册 网站开发怎么自己做企业网站
  • 简约大气网站设计欣赏泗洪县建设局网站
  • 四川做网站优化价格wordpress 多语言插件
  • 申请网站wordpress上传图片会缩小
  • 技术支持 重庆网站终身免费建站
  • 网站看不到预览图图片制作动图
  • 效果好的手机网站建设品牌设计是做什么的
  • tomcat做网站属于什么跨境电商erp选哪个好
  • 微信官网与手机网站区别美食网站的设计与制作
  • 做it的网站有哪些电商seo推广
  • 汕头h5建站制作网页游戏html
  • 网站建设课程设计心得建设官方网站首页
  • wordpress 全站ssl网站定制公司哪家好
  • 长春市建设工程交易中心网站网站制作包括数据库吗
  • 现在还有没有做任务的网站深圳响应式网站开发
  • 购物网站的首页是静态wordpress 页面全屏
  • 哪个网站可以做excel广州网站开发系统
  • 做网站的一些费用河北伟创网络技术有限公司
  • 网站后台百度商桥代码哪里安装网站维护 费用
  • 域名备案网站要不要关最新长尾关键词挖掘
  • 深圳贸易外贸公司50强南通优化网站
  • 社交网站开发客户做ppt的素材网站
  • 网页设计网站模板网站建设网页模板医药类网站建设评价
  • 建设网站的书籍域名备案和网站备案是一回事吗
  • 爱站挖词html代码在线提取
  • 简历在线制作网站免费怎么在网页中加入图片
  • 湛江有帮公司做网站wordpress 图片轮播
  • 搜索优化整站优化o2o平台有哪些国内