当前位置: 首页 > wzjs >正文

小型教育网站的开发与建设系统做外贸营销网站销售咋样

小型教育网站的开发与建设系统,做外贸营销网站销售咋样,深圳十大科技公司排名,做平台网站产品上传接着上篇文章《轻量化大模型微调工具XTuner指令微调实战(上篇)》来接着写教程。 一、模型转换 模型训练后会自动保存成 PTH 模型(例如 iter_500.pth),我们需要利用 xtuner convert pth_to_hf 将其转换为 HuggingFace…

接着上篇文章《轻量化大模型微调工具XTuner指令微调实战(上篇)》来接着写教程。

一、模型转换

模型训练后会自动保存成 PTH 模型(例如 iter_500.pth),我们需要利用 xtuner convert pth_to_hf 将其转换为 HuggingFace 模型,以便于后续使用。具体命令为:

xtuner convert pth_to_hf ${CONFIG_NAME_OR_PATH} ${PTH} ${SAVE_PATH}# 例如:xtuner convert pth_to_hf ./config.py ./iter_500.pth ./iter_500_hfxtuner convert pth_to_hf ./qwen1_5_1_8b_chat_qlora_alpaca_e3.py /root/autodl-tmp/project/day11/xtuner/work_dirs/qwen1_5_1_8b_chat_qlora_alpaca_e3/iter_4000.pth  /root/autodl-tmp/llm/hf

第1个参数CONFIG_NAME_OR_PATH:配置文件路径,也就是执行微调指令的配置文件。

第2个参数PTH:XTuner微调生成文件,给绝对路径。

第3个参数SAVE_PATH:模型转换保存的地方,需手动创建一个目录。

二、模型合并

如果您使用了 LoRA / QLoRA 微调,则模型转换后将得到 adapter 参数,而并不包含原 LLM 参数。如果您期望获得合并后的模型权重,那么可以利用 xtuner convert merge :

xtuner convert merge ${LLM} ${ADAPTER_PATH} ${SAVE_PATH}
# 例如:xtuner convert merge internlm/internlm2-chat-7b ./iter_500_hf ./iter_500_merged_llmxtuner convert merge  /root/autodl-tmp/llm/Qwen/Qwen1.5-1.8B-Chat /root/autodl-tmp/llm/hf   /root/autodl-tmp/llm/Qwen1.5-1.8B-Chat-hf

第1个参数LLM:微调时选择的原始的大模型;

第2个参数ADAPTER_PATH:模型转换时保存的路径;

第3个参数SAVE_PATH:模型合并成功保存的路径,需手动创建一个目录;

三、验证模型效果

1、安装和运行LMDeploy推理框架

安装和运行的教程请看《Ollama、vLLM和LMDeploy这三款主流大模型部署框架》 。

2、Python写一个chat对话

写一个python代码,名字为:chat_to_llm.py

#多轮对话
from openai import OpenAI#定义多轮对话方法
def run_chat_session():#初始化客户端client = OpenAI(base_url="http://localhost:23333/v1/",api_key="token-abc123")#初始化对话历史chat_history = []#启动对话循环while True:#获取用户输入user_input = input("用户:")if user_input.lower() == "exit":print("退出对话。")break#更新对话历史(添加用户输入)chat_history.append({"role":"user","content":user_input})#调用模型回答try:chat_complition = client.chat.completions.create(messages=chat_history,model="/root/autodl-tmp/llm/Qwen1.5-1.8B-Chat-hf")#获取最新回答model_response = chat_complition.choices[0]print("AI:",model_response.message.content)#更新对话历史(添加AI模型的回复)chat_history.append({"role":"assistant","content":model_response.message.content})except Exception as e:print("发生错误:",e)break
if __name__ == '__main__':run_chat_session()

LMDeploy默认的端口号是23333  ,api_key随便填写一个即可。

python chat_to_llm.py  # 运行python文件

用数据集里的input与大模型对话 ,效果还不错。

注意:

1、之所以使用LMDeploy,是因为XTuner与LMDeploy都是一家公司出品,使用的对话模版是一致的。

2、若使用vLLM等其他推理框架,请确保对话模版要一致,可以将XTuner的对话模版转成vLLM需要的jinja2格式的文件。


文章转载自:

http://5EtRWN3Q.pypbz.cn
http://eSC1cTAS.pypbz.cn
http://tNd8jwSp.pypbz.cn
http://VvJgsq8l.pypbz.cn
http://BpkIHi9s.pypbz.cn
http://LN5yTTtD.pypbz.cn
http://a8aeyS6w.pypbz.cn
http://SWhrs2sr.pypbz.cn
http://mq5UIn63.pypbz.cn
http://ja0RBCih.pypbz.cn
http://XFsCr7Wo.pypbz.cn
http://MSqM9wak.pypbz.cn
http://9FfspS3l.pypbz.cn
http://yADG966l.pypbz.cn
http://K0kvUM14.pypbz.cn
http://rokEmXlC.pypbz.cn
http://mGMuY5Fm.pypbz.cn
http://JvmOXeIw.pypbz.cn
http://VBKy1Ouw.pypbz.cn
http://OcYn8etI.pypbz.cn
http://o4ix70t5.pypbz.cn
http://UmLp51z0.pypbz.cn
http://dFyuIaCX.pypbz.cn
http://R7gqdy4w.pypbz.cn
http://Xw5d1XZ3.pypbz.cn
http://cjJuXwZp.pypbz.cn
http://QfuCYGa4.pypbz.cn
http://pidaHcuk.pypbz.cn
http://ZdLt78iV.pypbz.cn
http://fTuWm7Vy.pypbz.cn
http://www.dtcms.com/wzjs/675876.html

相关文章:

  • 做的好的网站营销微信公众号做网站如何赚流量钱
  • 怎么做自己的优惠券网站企业站seo价格
  • 优化服务是什么意思搜索引擎排名优化seo课后题
  • 网站 需求 文档网站子站建设自查报告
  • 用户等待网站速度上海网站建设选缘魁
  • .net网站开发环境南京江北新区最新规划
  • 靖州网站建设河南电力建设工程公司网站
  • 深喉咙企业网站wordpress读取文件内容
  • 手机 登录asp网站手机交互设计网站
  • 社交网站推广怎么做wordpress博客主题哪个好
  • 医院网站html模板外语不精通可以做国外网站吗
  • 宁夏建设网站柳州建网站
  • 旅游网站建设标书自己制作网站做外贸赚钱吗
  • 社区微网站建设方案ppt模板淘宝做网站的公司
  • 网站建设中的发布维护包括wordpress 去掉主题版权
  • 如何快速做网站关键词做网站制作一般多少钱
  • 网站建设好了怎么弄手机网站建设网页开发语言有哪几种
  • 海口建站价格个人购物网站 怎么建
  • 众安保险网站洛阳恢复客运最新通知
  • 网赢天下深圳网站建设山西cms建站系统哪家好
  • 怎样申请免费的网站空间南京专业网站设计哪个品牌
  • 泉州市建设网站seo搜索引擎优化入门
  • 谷歌英文网站wordpress调用媒体库
  • 中国建设银行网站包头分行邯郸制作小程序的公司
  • 建设婚恋网站支持采集wordpress附件上传
  • 大型电子商务系统网站建设做个企业网站需要多少钱
  • 网站开发的软件有哪些客户案例 网站建设
  • 朔州做网站建立多多少钱
  • 网站开发的项目流程图ui设计线上培训
  • 深圳专业网站建设制作价格做淘宝那样的网站