AutoModel | Embedding、Transformer架构模型 | 用于加载基础的 transformer 模型(如 BERT、RoBERTa、DistilBERT 等),适合提取文本的 embedding 向量。 | 适用于 Embedding 任务,文本表示。 |
AutoModelForSequenceClassification | 文本分类 | 加载预训练的 transformer 模型,适用于文本分类任务。 | LLM(用于分类任务)。 |
AutoModelForTokenClassification | 实体识别(NER) | 用于命名实体识别等任务,加载适合 token 分类的模型。 | LLM(用于 token 级别的任务)。 |
AutoModelForQuestionAnswering | 问答任务 | 用于加载问答模型,基于 transformers 架构,适合回答给定文本中的问题。 | LLM(用于问答任务)。 |
AutoModelForCausalLM | 文本生成(Causal LM) | 用于加载自回归的语言模型(如 GPT-2),适合用于文本生成任务。 | LLM(用于生成任务)。 |
AutoModelForMaskedLM | 掩码语言模型(MLM) | 用于加载掩码语言模型(如 BERT、RoBERTa),适合用于填充缺失的文本部分。 | LLM(用于填充缺失词)。 |
AutoModelForSeq2SeqLM | 序列到序列任务(如翻译) | 用于加载序列到序列的模型(如 T5、BART),适合用于翻译、摘要等任务。 | LLM(用于序列到序列任务)。 |