当前位置: 首页 > news >正文

大模型—如何从huggingface上下载并调用模型

最近需要手动从huggingface上下载模型,尝试在调用模型时发现了不少问题,写个blogger记录一下,后续再行补充

1,下载meta-llama/Llama-3.2-3B到本地(推荐手动下载)

2,在下载到本地后,利用conda创建一个环境,并下载需要的包

conda create -n llm python==3.10
conda activate llm
pip install transformer

pytorch 根据自己的cuda版本选择合适的版本

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

3,写一个run.py脚本来调用,查看模型的结构

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("/data/Matrix/zh/Llama-3.2-3B", trust_remote_code=True)
model = AutoModel.from_pretrained("/data/Matrix/zh/Llama-3.2-3B", trust_remote_code=True).half().cuda()
print(model)

可能出现的问题:

 ValueError: `rope_scaling` must be a dictionary with with two fields, `type` and `factor`, got {'factor': 32.0, 'high_freq_factor': 4.0, 'low_freq_factor': 1.0, 'original_max_position_embeddings': 8192, 'rope_type': 'llama3'}               解决办法:更新最新的transformer

pip install --upgrade transformers

最后就能看到模型的结构啦!

相关文章:

  • 每天一个Flutter开发小项目 (8) : 掌握Flutter网络请求 - 构建每日名言应用
  • RuoYi框架介绍,以及如何基于Python使用RuoYi框架
  • DeepSeek 使用窍门与提示词写法指南
  • Spark基础篇 RDD、DataFrame与DataSet的关系、适用场景与演进趋势
  • 聊聊Java的SPI机制
  • SocketCAN(linux中启用CAN)
  • fs 文件系统模块
  • linux-docker及docker-compose相关命令
  • 驱动开发系列40 - Linux 显卡驱动KMD代码分析(一) - 设备初始化过程
  • langchain4j+local-ai小试牛刀
  • 辛格迪客户案例 | 鼎康生物电子合约系统(eSign)项目
  • 基于Kerberos认证对接华为云Elasticsearch
  • 【时序预测】在线学习:算法选择(从线性模型到深度学习解析)
  • (南京观海微电子)——倍压设计与应用
  • Python----数据分析(Numpy:安装,数组创建,切片和索引,数组的属性,数据类型,数组形状,数组的运算,基本函数)
  • 【大模型】fp32 和 fp16 的区别,混合精度的原理。
  • 中科大计算机网络原理 1.5 Internt结构和ISP
  • OSI七层模型:从入门到精通的全面解析
  • ES from size聚合查询10000聚合查询,是每个分片先聚合,再统计。还是所有节点查询1万条后,再聚合
  • Linux服务器防火墙白名单访问策略的配置示例
  • 双语cms网站/惠州搜索引擎优化
  • 建设家具网站/百度文库个人登录入口
  • 如何做cpa单页网站/百度店铺怎么入驻
  • 专门做照片书的网站/四川seo推广公司
  • 主体负责人和网站负责人/福州seo经理招聘
  • wordpress加中文字体/宁波企业seo外包