当前位置: 首页 > news >正文

从Huggingface下载模型的方法小结

概览

从 Hugging Face 下载模型主要有五种常用方式:使用 Transformers 的 from_pretrained 接口、Hugging Face 提供的命令行工具(CLI)、huggingface_hub 库中的 hf_hub_download 函数、snapshot_download 方法、以及通过 Git LFS 克隆模型仓库。每种方法各有优势,可根据网络环境、自动化需求和私有仓库权限灵活选择。


方法一:Transformers Python API

通过 Transformers 库的高层接口,可以一行代码从模型仓库下载并加载模型:

from transformers import AutoModel, AutoTokenizer  
model = AutoModel.from_pretrained("bert-base-uncased")  
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")

首次运行时,所需权重文件会被下载并缓存到本地,再次加载时即从缓存读取,无需重复下载。

对于需要离线加载的场景,可设置 local_files_only=True,让 from_pretrained 仅从本地缓存加载:

model = AutoModel.from_pretrained("bert-base-uncased", local_files_only=True)

这样可以在无网络环境下使用已下载模型。


方法二:命令行工具(CLI)

Hugging Face 官方提供 huggingface-cli,可直接在终端下载模型文件:

pip install huggingface_hub 
huggingface-cli download HuggingFaceH4/zephyr-7b-beta

该命令会将指定模型仓库的所有文件下载到本地缓存目录,适合快速批量下载或脚本化操作。

登录并授权后,CLI 也能访问私有仓库:

huggingface-cli login huggingface-cli download <private-repo-id>

授权令牌会自动保存在本地,后续下载无需重复登录。


方法三:hf_hub_download 函数

使用 huggingface_hub 库时,可精确下载指定文件而非整个仓库:

from huggingface_hub import hf_hub_download 
local_path = hf_hub_download(repo_id="lysandre/arxiv-nlp", filename="config.json") 
print(local_path) # /root/.cache/huggingface/hub/models--lysandre--arxiv-nlp/.../config.json

函数会将文件缓存在本地,并返回缓存路径,有助于在自定义脚本中灵活获取模型组件。


方法四:snapshot_download 整仓下载

当需要离线或墙内环境完整获取模型时,可使用 snapshot_download

from huggingface_hub import snapshot_download 
snapshot_download(repo_id="meta-llama/Llama-2-7b-hf", repo_type="model")

该方法会下载整个仓库快照,包括所有版本的文件,并存储于本地缓存目录,支持指定分支或提交哈希。


方法五:Git LFS 克隆

模型仓库本质上是 Git 仓库,可通过 Git LFS 完整克隆:

git lfs install git clone https://huggingface.co/bigscience/bloom

若对私有模型有写权限,可使用 SSH:

git clone git@hf.co:<MODEL_ID>

克隆后,仓库中包含 config.json、权重文件(.bin.safetensors)等,可直接在本地加载。


本地缓存与管理

所有下载的模型文件默认缓存在 ~/.cache/huggingface/ 目录下,包含版本管理和权限控制信息,不建议手动修改缓存文件以免损坏。

若需清理缓存,可删除对应子目录或使用官方工具:

huggingface-cli cache delete

管理缓存有助于节省磁盘空间并重置下载状态。


小结

  • 快速体验:使用 from_pretrainedpipeline 即可一行加载模型。

  • 批量/自动化:推荐 huggingface-cli downloadsnapshot_download

  • 精细控制:采用 hf_hub_download 按需获取文件。

  • 克隆镜像:通过 Git LFS 完整克隆,适合二次开发和私有化部署。

根据自身需求和网络环境灵活选择,均可在 Hugging Face Hub 上安全、高效地获取所需模型。

相关文章:

  • 如何从路由表优化的角度理解[CIDR]无类别域间路由选择技术?
  • 针对Mkdocs部署到Githubpages加速访问速度的一些心得
  • 2021年下半年试题四:论微服务架构及其应用
  • Spring AI 之 AI核心概念
  • 2025年渗透测试面试题总结-渗透岗位全职工作面试(附回答)(题目+回答)
  • SWiRL:数据合成、多步推理与工具使用
  • 前端代码规范详细配置
  • QT:qt5调用打开exe程序并获取调用按钮控件实例2025.5.7
  • 2025年高校辅导员考试高频考点有哪些?
  • qsort函数
  • Linux/AndroidOS中进程间的通信线程间的同步 - 信号量
  • 绘制拖拽html
  • 移动二维矩阵
  • 证券行业数字化转型:灵雀云架设云原生“数字高速路”
  • ZArchiver解压缩工具:高效解压,功能全面
  • FreeCAD傻瓜教程-涡轮蜗杆的快速绘制FCGear工作台的使用方法
  • kubernetes核心概念 Service(二)
  • 策略优化基础网格搜索与参数优化
  • (25.05)Ubuntu 20.04上安装和运行ORB-SLAM3(非ROS)
  • VSCode怎么同时打开多个页面
  • 中美经贸高层会谈在瑞士日内瓦开始举行
  • 妻子藏匿一岁幼儿一年多不让丈夫见,法院发出人格权侵害禁令
  • 大风暴雨致湖南岳阳县6户房屋倒塌、100多户受损
  • 上海将发布新一版不予行政处罚清单、首份减轻行政处罚清单
  • 马丽称不会与沈腾终止合作,“他是我的恩人,也是我的贵人”
  • 当一群杜克土木工程毕业生在三四十年后怀念大学的历史课……