当前位置: 首页 > wzjs >正文

廊坊网站建设官网百度霸屏培训

廊坊网站建设官网,百度霸屏培训,99作文网官网,哪里有国内网站建设公司接上文,本地配置Open-R1,用蒸馏量化版本DeepSeek-R1-distill-Qwen跑AIME2024评测失败了。想了半天,把本地环境全推了不可能,配docker又不太方便。不死心翻了翻最近配的4090机器,发现驱动刚好装了最新的,能够…

接上文,本地配置Open-R1,用蒸馏量化版本DeepSeek-R1-distill-Qwen跑AIME2024评测失败了。想了半天,把本地环境全推了不可能,配docker又不太方便。不死心翻了翻最近配的4090机器,发现驱动刚好装了最新的,能够支持CUDA12.4。

还好,失败了没有恼羞成怒的删了env和代码,赶紧打包放到这台机器上,改了几个路径问题,激活环境,调用torch和vllm都可以。

又开始跑测试脚本,第一个是解决离线无法下载模型和数据的事情。模型的话,因为之前介绍提到的,已经下载并测试了一般问题回答,因此,直接传到这个机器,修改模型路径MODEL即可。数据的话,要修改到./src/open-r1/evaluation.py中的LightevalTaskConfig中的hf_repo,改成本地路径就行,后面再看怎么传参数进去。按照repo把数据下回来,改好路径。

再次执行测试脚本,终于还是又出错了,RuntimeError: expected scalar type Half but found BFloat16。

MODEL=deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
MODEL_ARGS="pretrained=$MODEL,dtype=bfloat16,max_model_length=32768,gpu_memory_utilisation=0.8"
OUTPUT_DIR=data/evals/$MODEL# AIME 2024
TASK=aime24
lighteval vllm $MODEL_ARGS "custom|$TASK|0|0" \--custom-tasks src/open_r1/evaluate.py \--use-chat-template \--output-dir $OUTPUT_DIR

原来是脚本里面的dtype问题,改成half和float16都行。但是,后面要是跑Q8及其他量化时,那是不是还是默认要转到float16或者bfloat16?那岂不是,只节省了存储,而不节省计算和带宽。要是性能再不好,那真是特别的好处了。

模型

AIME2024

@1 [6]

MATH500

@1 [7]

o1-mini [1]63.690.0
DeepSeek-R1-671B [1]79.897.3

DeepSeek-R1-distill-Qwen-1.5B [1]

28.983.9

DeepSeek-R1-distill-Qwen-7B [1]

55.592.8

DeepSeek-R1-distill-Qwen-32B [1]

72.694.3
Open-R1-1.5B [2]-81.2
Open-R1-7B [2]-91.8
Open-R1-32B [2]-95.0
bartowski/DeepSeek-R1-distill-Qwen-1.5B-f16 *23.368.8
bartowski/DeepSeek-R1-distill-Qwen-7B-Q8 *53.392.2
bartowski/DeepSeek-R1-distill-Qwen-32B-Q8 *70.095.6

表中数据来源,如下文献[1]和[2]。*号是编译Open-R1后,利用bartowski [3][4][5]中的蒸馏量化模型,在AIME2024和MATH500进行测试得到的。对比看,1.5B的性能差距是最大的,不知道是不是f16模型的问题?后面还得再check一遍。7B和32B,相比文[1]中的数据比较接近。后面还得再把DeepSeek自己提供的模型都测试一下。从模型大小看,应该是提供的FP16版本。

因此,整体上看,网络上提供的蒸馏模型还是基本可用的。如果是自己用LM studio跑着完,那1.5B模型就基本够用了。再加上,现在知乎、微信等等都接入了DeepSeek,当然这俩都是做的RAG,利用自己的数据,从回答上能明显看出来。同时,DeepSeek app目前也没有出现服务器忙的现象。

接下来,用LM Studio试试其他模型,比如llava,Mistral,Janus,Qwen2.5/-Instruct/-VL。还可以考虑把加载图片结合上DeepSeek-R1做题,以及图像生成模型。

 [1] DeepSeek-AI. DeepSeek_R1_Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. GitHub - deepseek-ai/DeepSeek-R1

[2] https://github.com/huggingface/open-r1

[3] https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-1.5B-GGUF

[4] https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-7B-GGUF

[5] https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF

[6] https://huggingface.co/datasets/HuggingFaceH4/aime_2024

[7] HuggingFaceH4/MATH-500 · Datasets at HF Mirror

http://www.dtcms.com/wzjs/181996.html

相关文章:

  • 网站怎么挂服务器谷歌网站推广优化
  • 安徽建设部网站昆明网络推广
  • 做网站重庆seo外包优化服务商
  • 重庆微信网站舆情报告
  • 完美代码的网站中国科技新闻网
  • wordpress 更换ip香港seo公司
  • 网站在公司做有什么要求吗武汉seo优化
  • 萧山建设信用网站广州网站建设
  • 可以用来制作网页的软件有哪些seo外链工具
  • 燕莎做网站常用的网络营销方式
  • 做外单网站画质优化app下载
  • PR做视频需要放网站上今天有哪些新闻
  • 服务器可以做几个网站seo排名规则
  • 手机搜索和网站搜索的排名搜索引擎优化的基本方法
  • 做个电商网站和app高端网站定制开发
  • 微网站建设难不难深圳网站建设专业乐云seo
  • 安庆做网站开发一个网站需要多少钱
  • 可视方便建站微网站哪个好怎么用简易的旅游网页制作
  • 做投资的网站网络公司名字大全
  • 爱网站长尾百度推广助手官方下载
  • eclipse做企业网站线下推广都有什么方式
  • wordpress 课广州宣布5条优化措施
  • 那个网站是做辅材批发的在线视频观看免费视频22
  • 5118站长工具河北seo关键词排名优化
  • 有什么网站可以接单做兼职的seo外包多少钱
  • window2008 网站建设长沙seo霜天
  • 公司网站格式百度竞价
  • 深圳做网站建设开发seo排名谁教的好
  • 广州营销网站建设公司谷歌优化怎么做
  • wordpress返回上一页插件深圳搜索排名优化