当前位置: 首页 > wzjs >正文

亅新厦建设集团网站微网站app制作

亅新厦建设集团网站,微网站app制作,商标设计注意事项,滕州网站建设优化本节代码将展示如何在预训练的BERT模型基础上进行微调,以适应特定的下游任务。 ⭐学习建议直接看文章最后的需复现代码,不懂得地方再回看 微调是自然语言处理中常见的方法,通过在预训练模型的基础上添加额外的层,并在特定任务的…

本节代码将展示如何在预训练的BERT模型基础上进行微调,以适应特定的下游任务。

学习建议直接看文章最后的需复现代码,不懂得地方再回看

微调是自然语言处理中常见的方法,通过在预训练模型的基础上添加额外的层,并在特定任务的数据集上进行训练,可以快速适应新的任务。以下是从模型微调的角度对代码的详细说明:
 

1. 加载预训练模型

self.bert = BertModel.from_pretrained(model_path)
  • 预训练模型:使用 transformers 库的 BertModel.from_pretrained 方法加载一个预训练的BERT模型。model_path 是预训练模型的路径或名称,例如 "bert-base-chinese"

  • 优势

    • 预训练模型已经在大规模语料上进行了训练,学习了通用的语言表示。

    • 微调可以利用这些预训练的参数,快速适应新的任务,通常只需要较少的数据和训练时间。

2. 添加任务特定的头

self.mlm_head = nn.Linear(d_model, vocab_size)
self.nsp_head = nn.Linear(d_model, 2)
  • MLM头mlm_head 是一个线性层,用于预测被掩盖的单词。输入是BERT模型的输出,输出是词汇表大小的预测概率。

  • NSP头nsp_head 是一个线性层,用于预测两个句子是否相邻。输入是BERT模型的 [CLS] 标记的输出,输出是二分类的概率。

3. 前向传播

def forward(self, mlm_tok_ids, seg_ids, mask):bert_out = self.bert(mlm_tok_ids, seg_ids, mask)output = bert_out.last_hidden_statecls_token = output[:, 0, :]mlm_logits = self.mlm_head(output)nsp_logits = self.nsp_head(cls_token)return mlm_logits, nsp_logits
  • BERT模型的输出

    • bert_out.last_hidden_state:BERT模型的输出,形状为 (batch_size, seq_len, d_model)

    • [CLS] 标记的输出:output[:, 0, :],用于NSP任务。

  • 任务特定的输出

    • mlm_logits:MLM任务的预测结果。

    • nsp_logits:NSP任务的预测结果。

4. 数据处理

class BERTDataset(Dataset):def __init__(self, nsp_dataset, tokenizer: BertTokenizer, max_length):self.nsp_dataset = nsp_datasetself.tokenizer = tokenizerself.max_length = max_lengthself.cls_id = tokenizer.cls_token_idself.sep_id = tokenizer.sep_token_idself.pad_id = tokenizer.pad_token_idself.mask_id = tokenizer.mask_token_iddef __getitem__(self, idx):sent1, sent2, nsp_label = self.nsp_dataset[idx]sent1_ids = self.tokenizer.encode(sent1, add_special_tokens=False)sent2_ids = self.tokenizer.encode(sent2, add_special_tokens=False)tok_ids = [self.cls_id] + sent1_ids + [self.sep_id] + sent2_ids + [self.sep_id]seg_ids = [0]*(len(sent1_ids)+2) + [1]*(len(sent2_ids) + 1)mlm_tok_ids, mlm_labels = self.build_mlm_dataset(tok_ids)mlm_tok_ids = self.pad_to_seq_len(mlm_tok_ids, 0)seg_ids = self.pad_to_seq_len(seg_ids, 2)mlm_labels = self.pad_to_seq_len(mlm_labels, -100)mask = (mlm_tok_ids != 0)return {"mlm_tok_ids": mlm_tok_ids,"seg_ids": seg_ids,"mask": torch.tensor(mask, dtype=torch.long),"mlm_labels": mlm_labels,"nsp_labels": torch.tensor(nsp_label)}
  • 数据处理

    • 将文本数据转换为词索引(tok_ids)。

    • 添加特殊标记([CLS][SEP])。

    • 生成段嵌入(seg_ids)。

    • 生成MLM任务的数据(mlm_tok_idsmlm_labels)。

    • 填充或截断序列到固定长度(max_length)。

  • 掩码:生成掩码,用于标记哪些位置是有效的输入(非填充部分)。

5. 训练过程

for epoch in range(epochs):for batch in tqdm(trainloader, desc="Training"):batch_mlm_tok_ids = batch["mlm_tok_ids"]batch_seg_ids = batch["seg_ids"]batch_mask = batch["mask"]batch_mlm_labels = batch["mlm_labels"]batch_nsp_labels = batch["nsp_labels"]mlm_logits, nsp_logits = model(batch_mlm_tok_ids, batch_seg_ids, batch_mask)loss_mlm = loss_fn(mlm_logits.view(-1, vocab_size), batch_mlm_labels.view(-1))loss_nsp = loss_fn(nsp_logits, batch_nsp_labels)loss = loss_mlm + loss_nsploss.backward()optim.step()optim.zero_grad()print("Epoch: {}, MLM Loss: {}, NSP Loss: {}".format(epoch, loss_mlm, loss_nsp))
  • 训练步骤

    • 前向传播:将输入数据通过模型,得到MLM和NSP任务的预测结果。

    • 计算损失:分别计算MLM和NSP任务的损失。

    • 反向传播:计算梯度并更新模型参数。

    • 优化器:使用Adam优化器,学习率设置为 1e-3

  • 进度条:使用 tqdm 显示训练进度,使训练过程更加直观。

6. 微调的优势

  • 快速适应新任务:预训练模型已经学习了通用的语言表示,微调可以快速适应新的任务,通常只需要较少的数据和训练时间。

  • 节省计算资源:从头训练BERT模型需要大量的计算资源和时间,而微调只需要在预训练模型的基础上进行少量的训练。

  • 更好的性能:预训练模型在大规模数据上进行了训练,通常具有更好的性能。微调可以进一步提升模型在特定任务上的表现。

需复现代码


import re
import math
import torch
import random
import torch.nn as nnfrom tqdm import tqdm
from transformers import BertTokenizer, BertModel
from torch.utils.data import Dataset, DataLoaderclass BERT(nn.Module):def __init__(self, vocab_size, d_model, seq_len, N_blocks, num_heads, dropout, dff):super().__init__()self.bert = BertModel.from_pretrained(model_path)self.mlm_head = nn.Linear(d_model, vocab_size)self.nsp_head = nn.Linear(d_model, 2)def forward(self, mlm_tok_ids, seg_ids, mask):bert_out = self.bert(mlm_tok_ids, seg_ids, mask)output = bert_out.last_hidden_statecls_token = output[:, 0, :]mlm_logits = self.mlm_head(output)nsp_logits = self.nsp_head(cls_token)return mlm_logits, nsp_logitsdef read_data(file):with open(file, "r", encoding="utf-8") as f:data = f.read().strip().replace("\n", "")corpus = re.split(r'[。,“”:;!、]', data)corpus = [sentence for sentence in corpus if sentence.strip()]return corpusdef create_nsp_dataset(corpus):nsp_dataset = []for i in range(len(corpus)-1):next_sentence = corpus[i+1]rand_id = random.randint(0, len(corpus) - 1)while abs(rand_id - i) <= 1:rand_id = random.randint(0, len(corpus) - 1)negt_sentence = corpus[rand_id]nsp_dataset.append((corpus[i], next_sentence, 1)) # 正样本nsp_dataset.append((corpus[i], negt_sentence, 0)) # 负样本return nsp_datasetclass BERTDataset(Dataset):def __init__(self, nsp_dataset, tokenizer: BertTokenizer, max_length):self.nsp_dataset = nsp_datasetself.tokenizer = tokenizerself.max_length = max_lengthself.cls_id = tokenizer.cls_token_idself.sep_id = tokenizer.sep_token_idself.pad_id = tokenizer.pad_token_idself.mask_id = tokenizer.mask_token_iddef __len__(self):return len(self.nsp_dataset)def __getitem__(self, idx):sent1, sent2, nsp_label = self.nsp_dataset[idx]sent1_ids = self.tokenizer.encode(sent1, add_special_tokens=False)sent2_ids = self.tokenizer.encode(sent2, add_special_tokens=False)tok_ids = [self.cls_id] + sent1_ids + [self.sep_id] + sent2_ids + [self.sep_id]seg_ids = [0]*(len(sent1_ids)+2) + [1]*(len(sent2_ids) + 1)mlm_tok_ids, mlm_labels = self.build_mlm_dataset(tok_ids)mlm_tok_ids = self.pad_to_seq_len(mlm_tok_ids, 0)seg_ids = self.pad_to_seq_len(seg_ids, 2)mlm_labels = self.pad_to_seq_len(mlm_labels, -100)mask = (mlm_tok_ids != 0)return {"mlm_tok_ids": mlm_tok_ids,"seg_ids": seg_ids,"mask": torch.tensor(mask, dtype=torch.long),"mlm_labels": mlm_labels,"nsp_labels": torch.tensor(nsp_label)}def pad_to_seq_len(self, seq, pad_value):seq = seq[:self.max_length]pad_num = self.max_length - len(seq)return torch.tensor(seq + pad_num * [pad_value], dtype=torch.long)def build_mlm_dataset(self, tok_ids):mlm_tok_ids = tok_ids.copy()mlm_labels = [-100] * len(tok_ids)for i in range(len(tok_ids)):if tok_ids[i] not in [self.cls_id, self.sep_id, self.pad_id]:if random.random() < 0.15:mlm_labels[i] = tok_ids[i]if random.random() < 0.8:mlm_tok_ids[i] = self.mask_idelif random.random() < 0.9:mlm_tok_ids[i] = random.randint(106, self.tokenizer.vocab_size - 1)return mlm_tok_ids, mlm_labelsif __name__ == "__main__":data_file = "4.10-BERT/背影.txt"model_path = "/Users/azen/Desktop/llm/models/bert-base-chinese"tokenizer = BertTokenizer.from_pretrained(model_path)corpus = read_data(data_file)max_length = 25 # len(max(corpus, key=len))print("Max length of dataset: {}".format(max_length))nsp_dataset = create_nsp_dataset(corpus)trainset = BERTDataset(nsp_dataset, tokenizer, max_length)batch_size = 16trainloader = DataLoader(trainset, batch_size, shuffle=True)vocab_size = tokenizer.vocab_sized_model = 768N_blocks = 2num_heads = 12dropout = 0.1dff = 4*d_modelmodel = BERT(vocab_size, d_model, max_length, N_blocks, num_heads, dropout, dff)lr = 1e-3optim = torch.optim.Adam(model.parameters(), lr=lr)loss_fn = nn.CrossEntropyLoss()epochs = 20for epoch in range(epochs):for batch in tqdm(trainloader, desc = "Training"):batch_mlm_tok_ids = batch["mlm_tok_ids"]batch_seg_ids = batch["seg_ids"]batch_mask = batch["mask"]batch_mlm_labels = batch["mlm_labels"]batch_nsp_labels = batch["nsp_labels"]mlm_logits, nsp_logits = model(batch_mlm_tok_ids, batch_seg_ids, batch_mask)loss_mlm = loss_fn(mlm_logits.view(-1, vocab_size), batch_mlm_labels.view(-1))loss_nsp = loss_fn(nsp_logits, batch_nsp_labels)loss = loss_mlm + loss_nsploss.backward()optim.step()optim.zero_grad()print("Epoch: {}, MLM Loss: {}, NSP Loss: {}".format(epoch, loss_mlm, loss_nsp))passpass


文章转载自:

http://8cjGlkec.ghzfx.cn
http://RCINJuDA.ghzfx.cn
http://98T49mtb.ghzfx.cn
http://4zri7JyN.ghzfx.cn
http://N2K1VC9o.ghzfx.cn
http://TBfL1r6z.ghzfx.cn
http://SM7MZig2.ghzfx.cn
http://pWhohPYg.ghzfx.cn
http://5aGG5spu.ghzfx.cn
http://LAuyUGTC.ghzfx.cn
http://jyUaSyk6.ghzfx.cn
http://V6EgzoHz.ghzfx.cn
http://SEOnVhcW.ghzfx.cn
http://XAt4Mya4.ghzfx.cn
http://33l0Va3x.ghzfx.cn
http://6GGb18Cd.ghzfx.cn
http://TBoEyR16.ghzfx.cn
http://omRYBDP4.ghzfx.cn
http://zytg5w2p.ghzfx.cn
http://6zLm6dRP.ghzfx.cn
http://VKp3p1M1.ghzfx.cn
http://W7Fo17TV.ghzfx.cn
http://qQjY12kF.ghzfx.cn
http://X1TGtyMY.ghzfx.cn
http://CsLct7de.ghzfx.cn
http://6Sxt3dq2.ghzfx.cn
http://DWRmNFsZ.ghzfx.cn
http://SNPyOhni.ghzfx.cn
http://CadrsY40.ghzfx.cn
http://0rOTIJXf.ghzfx.cn
http://www.dtcms.com/wzjs/751294.html

相关文章:

  • 整改网站建设情况龙城街道横岗街道
  • 网站开发用什么图片格式最好济南 网站 建设
  • 邯郸哪里做网站本人有资金寻求合作
  • 个人网站建站系统wordpress 亚马逊评论
  • 外贸网站平台有几个万网手机网站
  • 网站开发的关键技术网站建设宁波
  • 苏州有哪些做网站哈尔滨cms网站建设
  • 谁能低价做网站支付接口制作深圳网站建设
  • j网站开发的相关知识南通网站建设苏鹏网络
  • 衡阳网站建设公司地址wordpress相关文章小工具
  • 网站开发 前端vue 后端cwordpress添加表情
  • 怎么创建网站页面淘宝seo优化排名
  • 网站搭建网站制作网站模板对seo的影响
  • 扫二维码做自己网站一起秀h5怎么制作
  • 企业网站源码 vue外贸平台阿里巴巴补贴政策
  • 内网网站建设网页版面设计包括什么内容
  • 建设工程监理网站网络推广教育机构
  • 做华为网站的还有哪些wordpress简单企业站
  • 济南简单的网站制作做字体特效的网站
  • 自学网网站学校网站建设 分工
  • 网站建设法律可行性唐山网站制作工具
  • 大气好看的网站黄金交易平台app
  • 网站标签优化网站建设合作协议申请
  • 做资源网站违法吗做网站特别简单的软件
  • wordpress查看自己网站的ip量微站设计
  • 马云有没有学过做网站wordpress 评论回复插件
  • 深圳网站推广活动方案购物网站的商品展示模块
  • 商城建网站wordpress会员上限
  • 英文专业的网站设计大连三合一网站制作
  • 在什么网站上做自媒体青岛市建筑工程管理服务中心