当前位置: 首页 > wzjs >正文

天津做优化好的公司东莞seo优化团队

天津做优化好的公司,东莞seo优化团队,做b2b b2c型的混合网站,常州网站制作培训本篇笔记是在记录跑通微Qwen2.5-1.5B大模型的流程,自用,仅供参考。 文章目录 0. 前言1. 安装LLaMA-Factory2. 下载模型3. 数据集准备4. 训练yaml文件编写5. 训练6. 合并模型7. 模型推理结束语 0. 前言 Qwen2.5-1.5B大模型的官方github地址:h…

本篇笔记是在记录跑通+微Qwen2.5-1.5B大模型的流程,自用,仅供参考。

文章目录

  • 0. 前言
  • 1. 安装LLaMA-Factory
  • 2. 下载模型
  • 3. 数据集准备
  • 4. 训练yaml文件编写
  • 5. 训练
  • 6. 合并模型
  • 7. 模型推理
  • 结束语


0. 前言

Qwen2.5-1.5B大模型的官方github地址:https://github.com/QwenLM/Qwen2.5

1. 安装LLaMA-Factory

鉴于网上大部分的教程都是使用的llama-factory来进行的微调,包括qwen2.5的官方github中也贴有llama-factory的example
在这里插入图片描述
首先,在相应的地址进行克隆项目
我这个是在windows下运行的,所以使用的是git bash

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

在这里插入图片描述
然后创建新的环境 此处建议创建新环境,防止已有环境会起冲突。需要提前安装anaconda

conda create -n llama-factory python=3.11
conda activate llama-factory

然后,安装llama-factory的依赖包 cd为进入所克隆项目的路径

cd LLaMA-Factory
pip install -e ".[torch,metrics]"

在这里插入图片描述
最后,验证是否安装成功

llamafactory-cli version

在这里插入图片描述
至此,llama-factory安装完成。

2. 下载模型

此处我使用的是modelscope下载,因为要快一些。需要先安装一下modelscope。

pip install modelscope

在这里插入图片描述

modelscope download --model Qwen/Qwen2.5-1.5B-Instruct --local_dir your_path/Qwen2.5-1.5B-Instruct

在这里插入图片描述
至此,模型下载完成。

3. 数据集准备

根据github中的官方文档写的数据集的格式为
在这里插入图片描述
数据集准备完成后,注册自定义的训练数据
在这里插入图片描述

4. 训练yaml文件编写

新建一个llama_qwen_train.yaml文件(名字可以自己取),把训练相关参数复制进去,一些值也可以根据自己情况进行修改。此处我参考的是qwen官方文档https://github.com/QwenLM/Qwen2.5/blob/main/examples/llama-factory/finetune-zh.md
和这篇文章LLM基础学习03:Qwen2.5-1.5B-Instruct指令微调全流程实践——LLaMA Factory框架与GSM8K评估

官方文档的
在这里插入图片描述

另一篇文章的
在这里插入图片描述

5. 训练

编写完训练参数的yaml文件以后运行,使用以下命令进行运行

llamafactory-cli train llama_qwen_train.yaml 

命令行运行以后报错
在这里插入图片描述
解决方案
在这里插入图片描述
然后成功运行
在这里插入图片描述

6. 合并模型

依旧参考上述所提的官方文档,进行模型的合并
在这里插入图片描述

7. 模型推理

使用合并好的模型进行推理,依旧采用的是官方文档

from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model_name_or_path = YOUR-MODEL-PATHmodel = AutoModelForCausalLM.from_pretrained(model_name_or_path,torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)prompt = "Give me a short introduction to large language model."
messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

使用官方文档以后attention_mask,pad_token_id报错,参考此篇文章attention_mask,pad_token_id报错,修改后的代码如下

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model_name_or_path = "lora微调后的模型地址"model = AutoModelForCausalLM.from_pretrained(model_name_or_path,torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)prompt = "xxx"messages = [{"role": "system", "content": "xxx"},{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
input_ids = tokenizer.encode(text, return_tensors="pt")
attention_mask = torch.ones(input_ids.shape, dtype=torch.long, device=device)generated_ids = model.generate(model_inputs.input_ids,attention_mask=attention_mask,max_new_tokens=512,pad_token_id=tokenizer.eos_token_id,
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]print(response)

结束语

浅浅记录一下从0跑通+微调+推理 Qwen2.5-1.5B大模型的全程

http://www.dtcms.com/wzjs/205467.html

相关文章:

  • 网站的建设课程千锋教育培训多少钱
  • 东莞专业网站建设外链吧怎么使用
  • 海洋馆网站建设2021年网络营销考试题及答案
  • 班级网站布局生哥seo博客
  • 织梦手机网站短视频营销推广
  • 哪里培训网站开发好百度服务电话在线人工
  • 简洁大气国内企业网站网络推广营销方式
  • 网站建设价格济南站长之家点击进入
  • html css网站开发模板推广公众号的9种方法
  • 沈阳网站设计如何在百度做推广
  • wordpress动漫插件seo课程总结
  • 如何做论坛网站 知乎世界球队最新排名榜
  • 南水北调建设管理局网站惠州网站排名提升
  • 做网站济南西百度网址安全中心
  • 定制网站开发广安广播电台厦门seo培训
  • 网站开发word文档重庆森林电影
  • html5 wap 网站模板百度推广账号登陆入口
  • b2c网站功能需求独立站seo优化
  • 建设网站大概要花多少钱泉州关键词排名
  • 河南省建设监理协会网站证书查询婚恋网站排名前三
  • wordpress 微信缩略图不显示怎么优化整站
  • 个人网站名字大全代写软文公司
  • 360网站弹窗推广怎么做的抖音seo是什么
  • 东莞做商城网站建设提升关键词
  • 成都 网站建设百度搜索指数查询
  • 有什么兼职做设计的网站好b站在线观看人数在哪
  • 网站淘宝客一般怎么做优化大师下载旧版本安装
  • 盐城网站建设价格深圳网站推广公司
  • 做网站需要哪些人手企业策划推广公司
  • 网站开发小组总结报告网络营销什么意思