当前位置: 首页 > wzjs >正文

猎聘做简历的网站收费靠谱盘古百度推广靠谱吗

猎聘做简历的网站收费靠谱,盘古百度推广靠谱吗,高乐雅官方网站 哪个公司做的,wordpress模板框架文章目录 一、环境准备二、模型下载三、LoRA微调1.构建训练集2.微调 四、合并微调结果推理1.不合并LoRA2.合并LoRA微调结果推理 API(ms-swift) 一、环境准备 本次测试环境为modelscope社区提供的免费额度环境,A10单卡环境: 二…

文章目录

  • 一、环境准备
  • 二、模型下载
  • 三、LoRA微调
    • 1.构建训练集
    • 2.微调
  • 四、合并微调结果推理
    • 1.不合并LoRA
    • 2.合并LoRA微调结果推理
  • API(ms-swift)

一、环境准备

本次测试环境为modelscope社区提供的免费额度环境,A10单卡环境:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、模型下载

本次测试目的为跑通模型部署,微调及推理全流程,首先下载模型到本地,参考https://github.com/datawhalechina/self-llm/blob/master/models/Qwen2.5/05-Qwen2.5-7B-Instruct%20Lora%20%E5%BE%AE%E8%B0%83.md#%E6%A8%A1%E5%9E%8B%E4%B8%8B%E8%BD%BD,几行代码就可以下载:

from modelscope import snapshot_download# 第一个参数指定需要下载的模型,第二个参数指定下载到本地的位置
model_dir = snapshot_download('qwen/Qwen2.5-7B-Instruct', cache_dir='/mnt/workspace/model', revision='master')

下载完成后的基座模型:
在这里插入图片描述

三、LoRA微调

使用ms-swift,通过lora方式微调下载的基座模型,产出微调的权重文件。

ms-swift是一个针对大模型微调的高层封装框架,旨在简化训练流程、统一接口并集成多种微调技术,如 LoRA、QLoRA、Prefix Tuning等。通过ms-swift实现LoRA微调,仅需配置参数,无需关心底层实现。

1.构建训练集

参考https://swift.readthedocs.io/zh-cn/latest/Customization/%E8%87%AA%E5%AE%9A%E4%B9%89%E6%95%B0%E6%8D%AE%E9%9B%86.html,本次使用的是下面格式:
在这里插入图片描述
在这里插入图片描述
850条训练数据,每个训练数据组成一个json对象,其中必须包含queryresponse,可以有其他额外字段,只要不和内置的一些字段名如systemhistory等相同就不会影响训练。所有的json对象用一个json数组包含。

2.微调

具体微调参数代表的含义可以参考https://swift.readthedocs.io/zh-cn/latest/Instruction/%E5%91%BD%E4%BB%A4%E8%A1%8C%E5%8F%82%E6%95%B0.html,本次测试的swift环境是3.x。微调脚本:

#!/bin/bashprompt_dir=/mnt/workspace/data/charge_new_train850.json
output_dir=/mnt/workspace/output/charge_new_train850.qwen2.5_7b
model_dir=/mnt/workspace/model/qwen/Qwen2.5-7B-InstructCUDA_VISIBLE_DEVICES=0 \
swift sft \--model $model_dir \--model_type qwen2_5 \--dataset $prompt_dir \--output_dir $output_dir \--num_train_epochs 3 \--train_type lora \--lora_rank 8 \--lora_alpha 32 \--lora_dropout 0.05 \--weight_decay 0.1 \--learning_rate 1e-4 \--gradient_checkpointing true \--per_device_train_batch_size 1 \--gradient_accumulation_steps 16 

训练完成后在output文件夹下会生成指定名称charge_new_train850.qwen2.5_7b的文件夹,文件夹里的内容结构:
在这里插入图片描述
圈起来的就是最终的微调结果,在推理时加载改结果就可以了。

四、合并微调结果推理

1.不合并LoRA

使用下载的基座模型,先测试一下推理效果作为合并LoRA后推理效果的对照,参考https://swift.readthedocs.io/zh-cn/latest/Instruction/%E6%8E%A8%E7%90%86%E5%92%8C%E9%83%A8%E7%BD%B2.html#id2:

import os
from swift.llm import PtEngine, RequestConfig, InferRequestquery = """
请根据以下地址情报和文本情报生成该POI的主点、分区、楼栋、单元号、楼层、户室号、和描述信息。分区、楼栋、单元号、户室号、和描述信息出现在楼层之后提取,出现在楼层之前不提取。
POI名称:浩瀚能源充电站(ZEEKRPower重庆彩云湖万科里超充地下站)|||地址情报:重庆市九龙坡区彩云湖万科里地下LG层B3停车场57号车位旁|||文本情报:
"""os.environ['CUDA_VISIBLE_DEVICES'] = '0'# 本地模型地址
model = '/mnt/workspace/model/qwen/Qwen2.5-7B-Instruct'# 加载推理引擎 & 设置批推理最多1条
engine = PtEngine(model, max_batch_size=1)
request_config = RequestConfig(max_tokens=512, temperature=0)# 推理
infer_requests = [InferRequest(messages=[{'role': 'user', 'content': query}])]
response = engine.infer(infer_requests, request_config)  # 无论单批推理几条,返回结果都是一个列表
print(f'response: {response[0].choices[0].message.content}')

在这里插入图片描述

2.合并LoRA微调结果推理

参考https://swift.readthedocs.io/zh-cn/latest/Instruction/%E9%A2%84%E8%AE%AD%E7%BB%83%E4%B8%8E%E5%BE%AE%E8%B0%83.html

import os
from swift.llm import (PtEngine, RequestConfig, safe_snapshot_download, get_model_tokenizer, get_template, InferRequest
)
from swift.tuners import Swiftquery = """
请根据以下地址情报和文本情报生成该POI的主点、分区、楼栋、单元号、楼层、户室号、和描述信息。分区、楼栋、单元号、户室号、和描述信息出现在楼层之后提取,出现在楼层之前不提取。
POI名称:浩瀚能源充电站(ZEEKRPower重庆彩云湖万科里超充地下站)|||地址情报:重庆市九龙坡区彩云湖万科里地下LG层B3停车场57号车位旁|||文本情报:
"""# 设置推理显卡
os.environ['CUDA_VISIBLE_DEVICES'] = '0'# 本地模型地址
model = '/mnt/workspace/model/qwen/Qwen2.5-7B-Instruct'
# checkpoint路径,注意要详细到最后一个epoch对应的文件夹
ck_dir = '/mnt/workspace/output/charge_new_train850.qwen2.5_7b/v0-20250327-175653/checkpoint-156'
lora_checkpoint = safe_snapshot_download(ck_dir)
template_type = None  # 使用对应模型默认的template_type
default_system = "You are a helpful assistant."  # 使用对应模型默认的default_system# 加载模型和对话模板
model, tokenizer = get_model_tokenizer(model)
model = Swift.from_pretrained(model, lora_checkpoint)
template_type = template_type or model.model_meta.template
template = get_template(template_type, tokenizer, default_system=default_system)
engine = PtEngine.from_model_template(model, template, max_batch_size=2)
request_config = RequestConfig(max_tokens=512, temperature=0)# 推理
infer_requests = [InferRequest(messages=[{'role': 'user', 'content': query}])
]
response = engine.infer(infer_requests, request_config)
print(f'response: {response[0].choices[0].message.content}')

在这里插入图片描述
可以看到合并LoRA微调结果之后输出格式按照训练集的格式输出,推理效果也更好。

B3停车场当成B3楼,但符合标注数据的提取逻辑。

API(ms-swift)

github:https://github.com/modelscope/ms-swift
2.x:https://swift2x.readthedocs.io/zh-cn/latest/
3.x:https://swift.readthedocs.io/zh-cn/latest/

http://www.dtcms.com/wzjs/58690.html

相关文章:

  • 自己制作网站该怎么做临沂做网站建设公司
  • 怎么做网站识图验证码黄冈网站seo
  • 西宁网站建设君博推荐seo关键词排名优化教程
  • 免费做电子请帖的网站免费广告网
  • 小蜜蜂网站建设百度公司有哪些部门
  • 北京城乡建设门户网站站内关键词自然排名优化
  • 镇江网站定制南阳seo优化
  • asp网站中毒广东疫情中高风险地区最新名单
  • 网站的设计思路范文谷歌浏览器引擎入口
  • 增城营销网站建设朝阳seo搜索引擎
  • 搞黄色网站做牢手机百度ai入口
  • 安徽工程建设造价信息网站百度免费注册
  • 电商运营转行后悔了云优化软件
  • 南宁最高端网站建设学seo如何入门
  • 合肥网站制作哪家好百度推广是什么工作
  • 苹果网站上物体阴影怎么做的免费的编程自学网站
  • 手机做图纸app下载网站什么平台可以免费打广告
  • 湖南的商城网站建设舆情分析报告案例
  • 哈尔滨网站建设外包公司大连头条热点新闻
  • 做公司网站合同用今日头条导入自己网站外链
  • 网站开发公司需要什么资质西安百度竞价托管
  • 苏州建设建设信息网站江门关键词排名工具
  • 做企业网站进行推广要多少钱品牌企业seo咨询
  • 网站建设立项申请报告郑州抖音推广
  • url主域名和注册网站不一致安徽seo推广
  • 注册网站租空间哪里租免费的网站域名查询app
  • 惠州做网站 百度优化网站seo如何优化
  • 保定做网站百度推广培训总结心得体会
  • 开发一个官方网站要多少钱中国十大营销策划公司排名
  • 汕头建站模板源码网站点击排名优化