当前位置: 首页 > wzjs >正文

网站代备案bt磁力bt天堂

网站代备案,bt磁力bt天堂,动易内容管理系统,济南 外贸网站建设环境安装可参照 .safetensors转换成.GGUF-CSDN博客 Llama.cpp是在 CPU 和 GPU 上高效运行 LLM 的好方法。缺点但是,您需要将模型转换为 Llama.cpp 支持的格式,现在是 GGUF 文件格式。在这篇博文中,您将学习如何转换HuggingFace 模型 &#…

 环境安装可参照

.safetensors转换成.GGUF-CSDN博客

Llama.cpp是在 CPU 和 GPU 上高效运行 LLM 的好方法。缺点但是,您需要将模型转换为 Llama.cpp 支持的格式,现在是 GGUF 文件格式。在这篇博文中,您将学习如何转换HuggingFace 模型 (Vicuna 13b v1.5) 到 GGUF 模型。

Llama.cpp 支持以下模型:

  • LLaMA 
  • LLaMA 2 
  • Falcon
  • Alpaca
  • GPT4All
  • Chinese LLaMA / Alpaca and Chinese LLaMA-2 / Alpaca-2
  • Vigogne (French)
  • Vicuna
  • Koala
  • OpenBuddy  (Multilingual)
  • Pygmalion 7B / Metharme 7B
  • WizardLM
  • Baichuan-7B and its derivations (such as baichuan-7b-sft)
  • Aquila-7B / AquilaChat-7B

步骤:

下载模型

参考内网环境下如何快速下载大模型-CSDN博客

转换模型

克隆 llama.cpp 存储库

git clone https://github.com/ggerganov/llama.cpp.git

安装所需的 python 库:

pip install -r llama.cpp/requirements.txt
window下可能会有问题请使用
pip3 install -r llama.cpp/requirements.txt

验证脚本是否存在并了解各种选项:

python llama.cpp/convert.py -h

将 HF 模型转换为 GGUF 模型:

python llama.cpp/convert.py vicuna-hf \--outfile vicuna-13b-v1.5.gguf \--outtype q8_0
# 如果不量化,保留模型的效果
python llama.cpp/convert_hf_to_gguf.py ./qwen2_0.5b_instruct  --outtype f16 --verbose --outfile qwen2_0.5b_instruct_f16.gguf
# 如果需要量化(加速并有损效果),直接执行下面脚本就可以
python llama.cpp/convert_hf_to_gguf.py ./qwen2_0.5b_instruct  --outtype q8_0 --verbose --outfile qwen2_0.5b_instruct_q8_0.gguf

测试可用

查看模型架构

由于模型架构、权重格式有些模型不能转换

查看模型架构:

 在 Hugging Face 模型页面查看

Hugging Face 上的模型通常会在 "Model Card"里描述使用的架构

在模型的 README.mdModel Card 里,通常会有关于架构的信息,例如:

  • base_model: llama-2
  • architecture: transformer
  • 具体使用了 GPT, Llama, Mistral, ViT 还是 BERT 之类的结构。

config.json 文件中查看

如果模型作者没有明确写明架构,可以查看模型的 config.json

  • 在 Hugging Face 模型页面,点击 "Files" 选项卡。
  • 找到 config.json 文件,点击打开。
  • 查找 architectures 字段,例如:
    {"architectures": ["Qwen2ForCausalLM"],"attention_dropout": 0.0,"bos_token_id": 151643,"eos_token_id": 151645,"hidden_act": "silu","hidden_size": 1536,"initializer_range": 0.02,"intermediate_size": 8960,"max_position_embeddings": 32768,"max_window_layers": 28,"model_type": "qwen2","num_attention_heads": 12,"num_hidden_layers": 28,"num_key_value_heads": 2,"rms_norm_eps": 1e-06,"rope_theta": 1000000.0,"sliding_window": 32768,"tie_word_embeddings": true,"torch_dtype": "bfloat16","transformers_version": "4.40.1","use_cache": true,"use_sliding_window": false,"vocab_size": 151936
    }

    这里可以看到 architecturesQwen2ForCausalLM,说明这个模型采用与 LLaMA 相似的 Transformer 解码器架构。

比如:

https://huggingface.co/AIDC-AI/Ovis2-1B 不能转换

https://huggingface.co/Qwen/Qwen2-1.5B-Instruct 能正常转换

参考:

Converting HuggingFace Models to GGUF/GGML | Substratus.AI

将 HuggingFace 模型转换为 GGUF 及使用 ollama 运行 —— 以 Qwen2-0.5B 为例_huggingface gguf-CSDN博客

http://www.dtcms.com/wzjs/444702.html

相关文章:

  • 郑州web网站建设公司中国seo排行榜
  • 网站建设流程王晴儿优化建议
  • 做网站php今日十大头条新闻
  • 氧化锌网站建设福建seo学校
  • 企业营销型网站分析推广怎么做才可以赚钱
  • 高要网站建设新品推广策划方案
  • 医疗网站建设信息重庆网站网络推广
  • 人大网站的建设互联网营销师培训多少钱
  • 网站开发要求专业网站优化推广
  • 移动端网站开发用的是java吗?网站外包
  • 石家庄住房城乡建设网站市场调研与分析
  • 专业建网站平台如何做百度搜索推广
  • 手机可以做网站吗如何推广外贸型网站
  • 男人和女人做受吃母乳视频网站免费微商软文范例大全100
  • 买网站账号做推广什么是核心关键词
  • 常用素材网站百度查重入口免费版
  • 网站建设了解国外b站推广网站
  • 网站设计规划教学设计漳州seo建站
  • 做网站不挣钱线上推广引流渠道
  • 网站已收录的404页面的查询网站底部友情链接
  • 想要找个网站做环评公示com网站域名注册
  • 网络宣传网站建设建站杭州产品推广服务公司
  • 运动鞋建设网站前的市场分析网站发布与推广怎么写
  • 企业简介范文大全廊坊seo排名收费
  • 电气毕业设计代做网站推销产品怎么推广
  • 网站建设行业网站深圳市推广网站的公司
  • 哪个网站可以做微商百度网站排名优化价格
  • 网站建设商家新媒体运营培训
  • 银川做网站服务重庆seo排名优化费用
  • 信誉好的微网站建设优化seo设置