当前位置: 首页 > wzjs >正文

新鸿儒网站外链群发平台

新鸿儒网站,外链群发平台,网页链接调用服务需要开启还是关闭,做问卷调查赚钱网站好一 序言 最近训练大模型,但是发现微调了很多模型,都希望部署起来,但是如果把模型合并,然后每个都去加载模型,发现成本太高了。心想能不能只加载基座模型,然后分别加载微调权重,这样成本比较低&…

一 序言

最近训练大模型,但是发现微调了很多模型,都希望部署起来,但是如果把模型合并,然后每个都去加载模型,发现成本太高了。心想能不能只加载基座模型,然后分别加载微调权重,这样成本比较低,也方便。顺着这个思路,发现vllm可以这样做,于是在此记录该做法。

二代码

本次实验是基于Qwen2.5-72B-Instruct微调的

from vllm impirt LLM, SamplingParams
from vllm.lora.request import LoRARequest
from transformers import AutoTokenizerdef read_prompt(prompt_path):with open(prompt_path, 'r') as f:prompt = f.read()return promptdef create_single_chat_conver(prompt, user_input):conver = []conver.append({"role":"system", "content":prompt})conver.append({"role":"user", "content":user_input})return converdef create_multi_chat_conver(conver, assi, user_input):conver.append("role":"assistant", "content":assi)conver.append("role":"user", "content":user_input)return converdef create_model(base_model_path="./model/Qwen2.5-72B-Instruct"):llm = LLM(model= base_model_path, enable_lora=True, max_model_len=2048, dtype="float16)tokenizer = AutoToKenizer.from_pretrained(base_model_path)return vllm, tokenizerdef generate_text_lora(messages, tokenizer, vllm, lora_request):input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_wohaisprompt=True)inputs = [input_text]# 设置生成所需参数sampling_params = SamplingParams(temperature=0.7, top_p=0.8, top_k=50, max_tokens=2048)outputs = vllm.generate(inputs, sampling_params=sampling_params,lora_request=lora_request)response = ''for output in outputs:response += output.outputs[0].textreturn responsedef generate_text(messages, tokenizer, vllm):input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_wohaisprompt=True)inputs = [input_text]# 设置生成所需参数sampling_params = SamplingParams(temperature=0.7, top_p=0.8, top_k=50, max_tokens=2048)outputs = vllm.generate(inputs, sampling_params=sampling_params)response = ''for output in outputs:response += output.outputs[0].textreturn responseif __name__ == "__main__":# 提示词路径prompt_path = './prompt.pbt'# 输入文本data_path = './input_txt.txt'#第一个微调的权重lora_request1 = LoRARequest("my_adapter_v1", 1, lora_local_path="output/lora/qwen2.5-72B-v1/")#第一个微调的权重lora_request2 = LoRARequest("my_adapter_v2", 2, lora_local_path="output/lora/qwen2.5-72B-v2/")prompt = read_prompt(prompt_path)vllm, tokenizer = create_model()with open(data_path, 'r') as f:all_data = f.readlines()for data in all_data:conver = create_single_chat_conver(prompt, data)response1 = generate_text_lora(conver, tokenizer, vllm, lora_request1)response2 = generate_text_lora(conver, tokenizer, vllm, lora_request2)response = generate_text(conver, tokenizer, vllm)

三总结

以上都是伪代码,仅做参考学习使用

http://www.dtcms.com/wzjs/515076.html

相关文章:

  • 网站首页横版图怎么做黑龙江新闻头条最新消息
  • 桂林网站建设费用百度电脑版登录网站
  • 四川旅游攻略自由行攻略青岛百度推广seo价格
  • wordpress模版建站武汉网站排名推广
  • 购物网站php模板有人看片吗免费观看视频
  • 中国建设监理协会网站投稿中国软文网官网
  • 做羽毛球网站免费的推广网站
  • wordpress add_shortcode鸡西seo顾问
  • 有网站怎么做下载直链seo工资待遇 seo工资多少
  • 网站地址格式外贸获客软件
  • 网站系统目前运行稳定全网自媒体平台
  • 学院网站建设 好处满十八岁可以申请abc认证吗
  • wordpress优秀网站企业网站的功能
  • 网站建设宣传 mp4大数据
  • 广东省人民政府网官网怎么做网站优化排名
  • 极简主题wordpressseo和sem推广
  • 做风险代理案源的网站贴吧引流推广
  • 哪个网站做代购百度在线咨询
  • 中国南昌网站建设免费建网站哪家好
  • 制作游戏需要什么软件seo是什么意思如何实现
  • wordpress站多久有排名怎么样创建网站
  • 旅游网站建设方手机推广软文
  • 赤峰市建设委员会网站厦门做网站公司有哪些
  • 西安企业做网站2022百度搜索风云榜
  • 专业网站制作的费用网络营销常见术语
  • 大连投诉网站报个计算机培训班多少钱
  • 郑州做网站报价站域名多少钱搜索引擎排名优化建议
  • 做网站销售天津放心站内优化seo
  • 惠州网站建设翻译淘宝运营培训班
  • 做机械配件的网站自己开网站怎么开