当前位置: 首页 > news >正文

大模型使用

1.模型下载:

1.1魔搭社区:

pip install modescope

1.1.1使用命令行下载: 

#无论是使用命令行还是ModelScope SDK,模型会下载到~/.cache/modelscope/hub默认路径下。
#下载整个模型repo(到默认cache地址)
modelscope download --model 'Qwen/Qwen2-7b'#下载整个模型repo到指定目录
modelscope download --model 'Qwen/Qwen2-7b' --local_dir 'path/to/dir'#指定下载到local_dir目录
modelscope download --model 'Qwen/Qwen2-7b' --include '*.json' --local_dir './local_dir'#指定下载单个文件(以'tokenizer.json'文件为例)
modelscope download --model 'Qwen/Qwen2-7b' tokenizer.json#指定下载多个个文件
modelscope download --model 'Qwen/Qwen2-7b' tokenizer.json config.json#指定下载某些文件
modelscope download --model 'Qwen/Qwen2-7b' --include '*.safetensors'#下载时,过滤指定文件
modelscope download --model 'Qwen/Qwen2-7b' --exclude '*.safetensors'

1.1.2使用SDK下载:

#使用snapshot_download下载整个模型仓库
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('iic/nlp_xlmr_named-entity-recognition_viet-ecommerce-title')

#指定下载某些文件
#指定下载Qwen/QwQ-32B-GGUF中q4_k_m量化版本到path/to/local/dir目录下
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('Qwen/QwQ-32B-GGUF',allow_patterns='qwq-32b-q4_k_m.gguf',local_dir='path/to/local/dir')#过滤指定文件
#将deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B仓库除figures子目录外的所有文件下载到指定的path/to/local/dir目录
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B',ignore_patterns='figures/',local_dir='path/to/local/dir')
#下载模型指定文件
#使用model_file_download下载模型指定文件
from modelscope.hub.file_download import model_file_download
model_dir = model_file_download(model_id='Qwen/QwQ-32B-GGUF',file_path='qwq-32b-q4_k_m.gguf')

 魔搭社区-模型下载

1.1.3通过Git下载:

魔搭社区-模型下载

2模型加载

2.1 transformers:

2.1.1 判断模型类型:纯文本模型、视觉模型、多模态模型?

方法 1:查看 config.json

  1. 进入模型目录(如 ./my_model/txt_model)。
  2. 打开 config.json 文件。
  3. 查找以下关键字段:
  • AutoModelForCausalLM如果 model_type 是 gpt2llamamistral 等 → 纯文本模型。
  • AutoModelForImageClassification如果 model_type 是 vitswin 等 → 视觉模型
  • VisionEncoderDecoderModel如果 model_type 是 vision-encoder-decoder → 多模态模型

方法 2:使用 AutoConfig 自动检测 

from transformers import AutoConfigconfig = AutoConfig.from_pretrained("./my_model/txt_model")
print(config.model_type)  # 输出模型类型,如 "gpt2", "llama", "vit"
print(config.architectures)  # 输出模型架构,如 ["GPT2LMHeadModel"]

方法 3:尝试用 AutoModel 加载

Hugging Face 的 AutoModel 会根据 config.json 自动选择合适的模型类:

from transformers import AutoModel
model = AutoModel.from_pretrained("./my_model/txt_model")
print(type(model))  # 查看模型的实际类型#可能的输出:
# <class 'transformers.models.gpt2.modeling_gpt2.GPT2LMHeadModel'> → 文本生成模型。
# <class 'transformers.models.vit.modeling_vit.ViTModel'> → 视觉模型。
# <class 'transformers.models.vision_encoder_decoder.modeling_vision_encoder_decoder.VisionEncoderDecoderModel'> → 多模态模型。

 2.1.2加载本地部署模型

# 加载多模态模型
from transformers import VisionEncoderDecoderModel
model_path2 = "./my_model/PDF_analysis"
model = VisionEncoderDecoderModel.from_pretrained(model_path2)

http://www.dtcms.com/a/273751.html

相关文章:

  • Qt 实现新手引导
  • Windows解决 ping 127.0.0.1 一般故障问题
  • unity 有打击感的图片,怎么做动画,可以表现出良好的打击效果
  • STM32串口通信(寄存器与hal库实现)
  • 2025年7月11日学习笔记一周归纳——模式识别与机器学习
  • 高校智慧教室物联网系统设计与实现
  • 《磁力下载工具实测:资源搜索+高速下载一站式解决方案》
  • 串行数据检测器,检测到011,Y输出1,否则为0.
  • JavaScript加强篇——第五章 DOM节点(加强)与BOM
  • 网安系列【18】之SpringBoot漏洞
  • React Three Fiber 实现 3D 模型点击高亮交互的核心技巧
  • 小架构step系列11:单元测试引入
  • Rocky Linux上使用NVM安装Node.js 18
  • 老系统改造增加初始化,自动化数据源配置(tomcat+jsp+springmvc)
  • 大数据时代UI前端的用户体验设计新思维:以数据为驱动的情感化设计
  • golang -gorm 增删改查操作,事务操作
  • 分布式推客系统全栈开发指南:SpringCloud+Neo4j+Redis实战解析
  • Neo4j启动
  • 从一到无穷大 #47:浅谈对象存储加速
  • 基于vscode的go环境安装简介
  • 企业级LLM知识库:构建智能知识管理平台,赋能业务增长
  • 降本增效!上云真香!
  • 如何批量旋转视频90度?
  • 基于Selenium和FFmpeg的全平台短视频自动化发布系统
  • 通过命名空间引用了 Application 类,php不会自动包含路径文件吗?
  • Vue 中的属性绑定:从基础到实战进阶
  • docker0网卡没有ip一步解决
  • Kotlin基础
  • leetcode 3169. 无需开会的工作日 中等
  • 格式规范公文处理助手:一键排版 标题 / 正文 / 页码一键调,Word 脚本自定义