当前位置: 首页 > wzjs >正文

自己做的网站被举报违反广告法代做百度首页排名

自己做的网站被举报违反广告法,代做百度首页排名,2345影视下载官网电视剧,图片分享网站源码出发点 在使用 LLamafactory 部署生成式模型(如 LLaMA、Qwen 等)时,开发者常会遇到以下问题: ❗️ ‌即使设置 do_sampleFalse,模型输出依然存在不可控的随机性‌ 这在 ‌文本分类、事实问答、代码生成‌ 等确定性任…

出发点

在使用 LLamafactory 部署生成式模型(如 LLaMA、Qwen 等)时,开发者常会遇到以下问题:

❗️ ‌即使设置 do_sample=False,模型输出依然存在不可控的随机性‌
这在 ‌文本分类、事实问答、代码生成‌ 等确定性任务中尤为致命。
本文将从一系列错误中,找到一套成功的解决方案。

部署+调用

配置项

我是以上述的方式配置的LLamafactory,文本分类的数据经过lora微调后,使用LLamafactory-cli进行部署,部署使用了vllm,调用方式调用方式

generation_config.json

在运行llamafactory-cli api ./data/qwen2.5-7b_lora_inference.yaml时可以看到有从模型配置文件中加载generation_config.json,所以我从这里出发修改了do_sample,基于之前看过的GenerateMinMax,我记得当do_sample=false时,模型也会基于repetition_penalty去做一个修改,所以相应的也修改了这个参数
在这里插入图片描述

{"bos_token_id": 151643,"pad_token_id": 151643,"do_sample": false,"eos_token_id": [151645,151643],"repetition_penalty": 1,"temperature": 0.7,"top_p": 0.8,"top_k": 20,"transformers_version": "4.37.0"
}

再次启动时,模型会报以下warning
warning
那我接着做了以下调整,删除了temperature、top_p、top_k

{"bos_token_id": 151643,"pad_token_id": 151643,"do_sample": false,"eos_token_id": [151645,151643],"repetition_penalty": 1,"transformers_version": "4.37.0"
}

可以看到成功加载了,但是没有了do_sample这个配置项了,我测试了一下文本分类这个任务,还是有随机性的,所以没有修改成功。
成功加载

ChatCompletionRequest

我感觉我的方向错了,所以我开始从LLamafactory-cli这里出发,通过查看src/llamafactory/api/app.py
在这里插入图片描述
我看到了request中还有stream这个参数,但是我的传入里面并没有这个参数,所以我去查看了src/llamafactory/api/protocol.py
在这里插入图片描述
再一次看到了do_sample,默认是None,那是这里的问题吗?
我去调用接口的地方尝试加入这个参数
在这里插入图片描述
然后就得到了报错
在这里插入图片描述
那我只能把这里取消,然后另找道路,比如直接在定义的地方改
在这里插入图片描述
然后发现还是不行,那我想这个参数是在什么地方被用到了呢?是什么时候传入到generate的呢?
通过src/llamafactory/api/app.py中可以看到request传入了src/llamafactory/api/chat.py的函数create_chat_completion_response
在这里插入图片描述
啊,发现do_sample了,那接着找chat_model(src/llamafactory/chat/chat_model.py)

在这里插入图片描述
可以看到传入了engine,那我用的vllm,查看src/llamafactory/chat/vllm_engine.py
通过在这里插入图片描述
那看一下_generate
在这里插入图片描述
不知道为什么没有do_sample这个参数,坑了。。。

huggingface

那我们去看一下huggingface方式呢src/llamafactory/chat/hf_engine.py
在这里插入图片描述

那查看一下_process_args,代码太多了,只截取了一部分
在这里插入图片描述
我看到了心心念念的do_sample,那我把推理方式改为这个,重新进行模型推理
结果没有随机性了

那如果把generation_config.json改为原有的影响这个结果吗?
结果是没有影响

所以目前的结论是需要修改request中的do_sample,而且当前只支持huggingface推理方式

http://www.dtcms.com/wzjs/149644.html

相关文章:

  • 检察院门户网站建设情况总结网站怎么被收录
  • 香港公司能在国内做网站厦门人才网唯一官方网站
  • 销售网站平台搭建百度竞价托管费用
  • 洛阳鼎和电力建设有限公司网站2023重大新闻事件10条
  • 快速网站排名汉狮公司seo技术专员招聘
  • 非遗网站建设目的国家卫健委每日疫情报告
  • 唐山模板网站建设建站abc官方网站
  • dw做aspx网站怎么做app推广和宣传
  • 网站标题应怎设置网站页面优化方法
  • 成都系统网站建设qq群排名优化软件购买
  • 做互联网网站待遇5月疫情最新消息
  • wordpress 主题没有样式表网络排名优化软件
  • 在线营业执照办理太原百度快速优化
  • 部门网站建设总结手机百度快照
  • 如何推广自己的外贸网站互联网广告推广好做吗
  • 网站注册免费永久查权重的软件
  • 网站域名已经被绑定100个经典创意营销方案
  • 网络程序河北seo人员
  • 网站建设7个基十大接单平台
  • php 网站发布建站seo推广
  • 怎么看网站有没有做301网站优化推广培训
  • 网站建设待遇最佳磁力吧ciliba
  • 做外贸 是否需要做中文网站949公社招聘信息
  • 邯郸建设网站的公司软件外包网
  • 我想找个人做网站品牌广告和效果广告的区别
  • 客服外包服务提升seo排名平台
  • 红十字会三合一网站建设方案专业做网站官网
  • 专门做985招聘信息的网站成人用品哪里进货好
  • 科技服务网站建设方案电商大数据查询平台免费
  • 顺德人做多上哪个网站百度搜索推广开户