当前位置: 首页 > news >正文

True or False? 基于 BERT 学生数学问题误解检测

True or False? 基于 BERT 学生数学问题误解检测

代码详见:https://github.com/xiaozhou-alt/Student_Math_Misconception


文章目录

  • True or False? 基于 BERT 学生数学问题误解检测
  • 一、项目介绍
  • 二、文件夹结构
  • 三、数据集介绍
  • 四、BERT 模型介绍
  • 五、项目实现
    • 1. 数据预处理
    • 2. 自定义数据类
    • 3. 多任务 BERT 模型
    • 4. 评估指标和早停机制
    • 5. 预测和结果处理
    • 6. 主函数(开始训练! 好像开始的有点晚)
  • 六、结果展示


一、项目介绍

学生经常被要求解释他们的数学推理。这些解释为学生的思维提供了丰富的见解,并经常揭示潜在的误解(系统性的错误思维方式)。
例如,学生经常认为 0.355 大于 0.8,因为他们错误地将整数知识应用于小数,推断 355 大于 8。学生在数学中产生了一系列误解,有时是因为他们错误地将先验知识应用于新内容,有时是因为他们试图理解新信息但误解了它。要了解有关这些定义和框架的更多信息,请参阅 此处的链接报告。
将学生的解释标记为包含潜在的误解对于诊断反馈很有价值,但既耗时又难以扩展。误解可能很微妙,具体性各不相同,并随着学生推理新模式的出现而演变。

这个项目使用基于 BERT 的多任务学习框架,同时解决学生数学解题过程中的 三个关键任务

  1. 答案正确性分类:判断学生答案 是否正确(二分类)
  2. 误解类型检测:识别学生在解题中 是否存在误解(二分类)
  3. 具体误解分类:识别学生解题中具体存在的 误解类型(多分类)

该系统通过联合学习三个相关任务,实现了知识迁移和模型参数共享,显著提升了各个任务的性能表现。项目采用 PyTorch 实现,包含完整的训练流程、早停机制、评估指标计算和结果可视化功能。

项目源于:MAP - Charting Student Math Misunderstandings | Kaggle

数据集下载(包含处理之后的数据集和原始数据集):Student_Math_Misconception (kaggle.com)

训练完成的模型下载:Student_Math_Misconception(kaggle.com)

二、文件夹结构

Student_Math_Misconception/
├── data/
│   ├── README-data.md
│   ├── class.json                # 类别定义文件,包含Category和Misconception的类别
│   ├── data.csv                  # 原始数据集文件
│   ├── split_report.json         # 数据集划分报告,记录训练/验证集划分详情
│   ├── train.csv                 # 划分后的训练集数据
│   └── val.csv                   # 划分后的验证集数据
├── log/                          # 日志文件夹
└── output/                       # 输出结果文件夹├── pic/                      # 图片输出├── sample_predictions.txt    # 模型预测结果示例└── training_history.xlsx     # 训练历史记录表格
├── README.md                     
├── data.ipynb                    # 数据分析和预处理
├── requirements.txt 
├── train.py 

三、数据集介绍

在 Eedi 上,学生回答诊断问题(DQ),这是一种多项选择题,具有一个正确答案和三个错误答案,称为干扰。在回答多项选择后,有时会要求学生提供书面解释来证明他们选择的答案是合理的。这些解释是 MAP 数据集的主要焦点,用于识别和解决学生推理中的潜在误解。
数据集包含学生解题记录,每行记录包含以下关键字段:

  • [train/val].csv
    • QuestionId- 唯一的问题标识符。
    • QuestionText- 问题的文本。
    • MC_Answer- 学生选择的多项选择题答案。
    • StudentExplanation- 学生对选择特定多项选择答案的解释。
    • Category- 对学生的多项选择题答案与其解释之间关系的分类(例如,True_Misconception,表示正确的多项选择题选择,并附有揭示误解的解释)。
    • Misconception- 学生对答案的解释中发现的数学误解。仅当类别包含误解时才适用,否则为“NA”。

类别定义存储在class.json中,包含所有可能的CategoryMisconception类型标签。

数据集前几行展示如下所示:

row_idQuestionIdQuestionTextMC_AnswerStudentExplanationCategoryMisconception
000317723177231772What fraction of the shape is not shaded? Give your answer in its simplest form. [Image: A triangle split into 9 equal smaller triangles. 6 of them are shaded.]13\frac{1}{3}31One third is equal to tree ninethTrue_CorrectNA
276327632763317723177231772What fraction of the shape is not shaded? Give your answer in its simplest form. [Image: A triangle split into 9 equal smaller triangles. 6 of them are shaded.]38\frac{3}{8}83$\frac{3}{9} because there is 999 triangles and three are not shaded so the answer =DDDFalse_MisconceptionIncomplete
114101141011410317783177831778A10=915\frac{A}{10}=\frac{9}{15}10A=159 What is the value of AAA ?44410+5=1510 + 5 = 1510+5=15 and 999 is over 151515 so you have to minus 555 from nine too.False_MisconceptionAdditive

class.json(于 data.ipynb 中处理得到):

{
“Category”: [
“True_Correct”,

“False_Correct”
],
“Misconception”: [
“NA”,
“Incomplete”,

“Scale”
]
}

四、BERT 模型介绍

BERT(Bidirectional Encoder Representations from Transformers)是由 Google 于2018 年提出的基于 Transformer 架构的预训练语言模型,标志着自然语言处理领域进入预训练大模型时代。其核心创新在于通过双向 Transformer 编码器 捕捉上下文语义,突破了传统单向语言模型的限制。BERT 采用 掩码语言建模(MLM)和 下一句预测(NSP)两大预训练任务,在大规模无标注文本(如 Wikipedia)上学习通用语言表示,通过随机遮蔽 15%15\%15% 的词汇要求模型还原原始文本,同时判断句子间的逻辑关系。这种预训练范式使模型能够捕获词汇、句法和语义的多层次特征,通过微调即可适配文本分类、问答、实体识别等下游任务。

在这里插入图片描述

五、项目实现

1. 数据预处理

将原始数据中的问题、答案和解释组合成单一文本输入,从CategoryCategoryCategory列提取三个任务的标签:

  • is_correctis\_correctis_correct: 答案是否正确(二分类)
  • misconception_typemisconception\_typemisconception_type: 误解类型(多分类)
  • misconception_labelmisconception\_labelmisconception_label: 具体误解(多分类)

处理缺失值问题,确保所有标签都有有效值

# 数据预处理
def preprocess_data(df):# 创建输入文本:问题 + 答案 + 解释...# 提取任务标签...# 修复缺失值问题...return df

2. 自定义数据类

  • 继承 PyTorchPyTorchPyTorchDataset\textbf{Dataset}Dataset 类,实现自定义数据集
  • 使用 BERT tokenizer 对文本进行编码:
    • 添加特殊标记[CLS]\textbf{[CLS]}[CLS][SEP]\textbf{[SEP]}[SEP]
    • 将序列填充/截断到固定长度
    • 返回注意力掩码以忽略填充部分
  • 返回包含输入 ID、注意力掩码、三个任务标签和原始文本的字典
# 自定义数据集
class MathDataset(Dataset):def __init__(self, texts, task1_labels, task2_labels, task3_labels, tokenizer, max_len):...def __len__(self):return len(self.texts)  # 返回数据集大小def __getitem__(self, idx):text = str(self.texts[idx])  # 获取文本# 使用tokenizer编码文本encoding = self.tokenizer.encode_plus(text,add_special_tokens=True,  # 添加[CLS]和[SEP]max_length=self.max_len,  # 截断/填充到最大长度padding='max_length',  # 填充到最大长度truncation=True,  # 启用截断return_attention_mask=True,  # 返回注意力掩码return_tensors='pt',  # 返回PyTorch张量)# 返回处理后的样本return {'input_ids': encoding['input_ids'].flatten(),  # 输入ID'attention_mask': encoding['attention_mask'].flatten(),  # 注意力掩码'task1_labels': torch.tensor(self.task1_labels[idx], dtype=torch.long),  # 任务1标签'task2_labels': torch.tensor(self.task2_labels[idx], dtype=torch.long),  # 任务2标签'task3_labels': torch.tensor(self.task3_labels[idx], dtype=torch.long),  # 任务3标签'text': text  # 原始文本(用于后续分析)}

3. 多任务 BERT 模型

使用预训练的 BERTBERTBERT 模型作为共享编码器;在 BERTBERTBERT 输出上添加 dropoutdropoutdropout 层防止过拟合;三个任务共享相同的 BERTBERTBERT 编码,但使用独立的分类层;pooler_outputpooler\_outputpooler_output[CLS]\textbf{[CLS]}[CLS]标记的表示,通常用于分类任务;模型输出三个任务的 logitslogitslogits(未归一化的预测分数)

# 多任务模型
class MultiTaskBert(torch.nn.Module):def __init__(self, num_task1_classes, num_task2_classes, num_task3_classes, model_name='bert-base-uncased'):super().__init__()# 共享的BERT编码器...# 任务特定的分类层...def forward(self, input_ids, attention_mask):# 获取共享表示outputs = self.bert(input_ids=input_ids, attention_mask=attention_mask)pooled_output = outputs.pooler_output  # 使用[CLS]的表示pooled_output = self.dropout(pooled_output)  # 应用dropout# 任务特定输出...return task1_logits, task2_logits, task3_logits

4. 评估指标和早停机制

因为本次项目开发的模型是针对三个任务而言的,所以针对三个任务拥有 不同 的评估指标:

  1. 答案正确性分类:判断学生答案 是否正确(二分类)
  2. 误解类型检测:识别学生在解题中 是否存在误解(二分类)
  3. 具体误解分类:识别学生解题中具体存在的 误解类型(多分类)

任务1,2:以 准确率 (Accuracy) 作为评估标准:
Accuracy=判断的正确个数验证集样本总数Accuracy = \frac{判断的正确个数}{验证集样本总数} Accuracy=验证集样本总数判断的正确个数

任务3:以 MAP@3Mean Average Precision at 3)作为评估标准:
MAP@3=1U∑u=1U∑k=1min⁡(n,3)P(k)×rel⁡(k)MAP@3 = \frac{1}{U} \sum_{u=1}^{U} \sum_{k=1}^{\min(n, 3)} P(k) \times \operatorname{rel}(k) MAP@3=U1u=1Uk=1min(n,3)P(k)×rel(k)
其中 UUU 是观测数,P(k)P(k)P(k) 是截止时的精度 kkk,nnn 是每个观察提交的预测数,并且 rel(k)rel(k)rel(k) 是一个指标函数,如果排名中的项目 kkk 是相关(正确)标签,否则为零。

计算每个样本预测的前 333 个类别中 是否包含真实标签,如果真实标签在前 kkk 个位置,精度为1k+1\frac{1}{k+1}k+11,最终结果是所有样本精度的 平均值

# MAP@3 计算函数
def map_at_3(y_true, y_pred_probs):U = len(y_true)  # 样本总数ap_sum = 0.0  # 平均精度和for i in range(U):true_label = y_true[i]  # 真实标签top_3 = np.argsort(y_pred_probs[i])[::-1][:3]  # 预测概率最高的前3个类别ap = 0.0  # 单个样本的平均精度# 检查前3个预测中是否有真实标签for k in range(min(3, len(top_3))):if top_3[k] == true_label:ap = 1 / (k + 1)  # 如果在位置k,则精度为1/(k+1)breakap_sum += ap  # 累加平均精度return ap_sum / U  # 返回平均MAP@3

早停机制防止模型过拟合,当验证集指标在指定轮数内没有显著提升时停止训练,保存最佳模型状态,以便在训练结束后恢复,min_delta\textbf{min\_delta}min_delta确保改进是实质性的,避免因微小波动而停止

# 早停类
class EarlyStopper:def __init__(self, patience=3, min_delta=0.001):self.patience = patience  # 容忍轮数self.min_delta = min_delta  # 最小改进值self.counter = 0  # 计数器self.best_metric = -np.inf  # 最佳指标值self.best_model_state = None  # 最佳模型状态self.epoch = 0  # 最佳模型所在轮数def check(self, current_metric, model, epoch):# 检查当前指标是否显著优于最佳指标if current_metric > self.best_metric + self.min_delta:self.best_metric = current_metric  # 更新最佳指标self.counter = 0  # 重置计数器self.best_model_state = model.state_dict().copy()  # 保存模型状态self.epoch = epoch  # 记录最佳轮数return False  # 不需要停止else:self.counter += 1  # 增加计数器if self.counter >= self.patience:return True  # 需要停止return False  # 不需要停止

5. 预测和结果处理

从数据集中随机选择样本进行预测,使用model.eval()model.eval()model.eval()torch.no_grad()torch.no\_grad()torch.no_grad()确保预测阶段高效且节省内存,将数字标签解码回原始类别名称,提高结果可读性,为 任务1(答案正确性)生成中文标签,便于理解,返回包含原始文本真实标签预测标签的字典列表
将预测结果格式化为易读的文本输出,清晰展示每个任务的真实值和预测值

# 加载模型并进行预测
def load_and_predict(model, tokenizer, dataset, task2_encoder, task3_encoder, device, num_samples=10):model.eval()  # 设置为评估模式# 随机选择样本索引sample_indices = random.sample(range(len(dataset)), min(num_samples, len(dataset)))results = []  # 存储预测结果for idx in sample_indices:...# 获取预测结果(取最高概率的类别)...# 获取真实标签...# 解码标签(将数字标签转回原始类别名称)...# 存储结果results.append({...})return results# 格式化输出预测结果
def format_prediction_results(results):formatted = []  # 存储格式化后的文本行for i, res in enumerate(results):formatted.append(f"样本 {i+1}:")  # 样本编号formatted.append(f"文本: {res['text']}")  # 原始文本formatted.append(f"任务1 (答案是否正确):")  # 任务1标题formatted.append(f"  真实: {res['task1_true']} | 预测: {res['task1_pred']}")  # 任务1结果formatted.append(f"任务2 (误解类型):")  # 任务2标题formatted.append(f"  真实: {res['task2_true']} | 预测: {res['task2_pred']}")  # 任务2结果formatted.append(f"任务3 (具体误解):")  # 任务3标题formatted.append(f"  真实: {res['task3_true']} | 预测: {res['task3_pred']}")  # 任务3结果formatted.append("-" * 80)  # 分隔线return "\n".join(formatted)  # 返回格式化后的字符串

6. 主函数(开始训练! 好像开始的有点晚)

模型训练部分直接包含在主函数中,没有单独封装成函数,所以按照代码的前后顺序,此处没有按照实际的运行顺序,而是按照代码从上到下的顺序进行讲解 ⌓‿⌓

  • 加载训练集和验证集 CSV 文件,应用预处理函数处理数据
  • 确定所有可能的类别,包括训练集和验证集中出现的类别
  • 任务3 添加NANANA类别处理缺失值,使用 LabelEncoderLabelEncoderLabelEncoder 将文本标签转换为数字,便于模型处理
def main():# 加载数据train_df = pd.read_csv('/kaggle/input/student-math-misconception/data/train.csv')val_df = pd.read_csv('/kaggle/input/student-math-misconception/data/val.csv')# 预处理train_df = preprocess_data(train_df)val_df = preprocess_data(val_df)# 确保所有类别都已知...# 检查并添加可能的缺失值if 'NA' not in all_task3_classes:...# 标签编码task2_encoder = LabelEncoder()...# 转换标签(将类别名称转换为数字)train_df['task2_encoded'] = task2_encoder.transform(train_df['misconception_type'])...
  • 使用 BERT tokenizer 进行文本编码,创建训练集和验证集的自定义数据集实例
  • 使用 DataLoaderDataLoaderDataLoader创建批处理数据加载器:
    • 训练集 洗牌 以提高训练效果
    • 使用多线程加速数据加载
    • 验证集不洗牌以确保结果一致性

ps:shuffle(中洗牌,混乱)。shuffle 在机器学习与深度学习中代表的意思是,将训练模型的数据集进行打乱的操作。原始的数据,在样本均衡的情况下可能是按照某种顺序进行排列,如前半部分为某一类别的数据,后半部分为另一类别的数据。但经过打乱之后数据的排列就会拥有一定的随机性,在顺序读取的时候下一次得到的样本为任何一类型的数据的可能性相同。本项目中问题类型相同的样本条目就被放到一起,直接读入就非常不利于模型训练。

    # 初始化tokenizertokenizer = BertTokenizer.from_pretrained('bert-base-uncased')# 创建数据集train_dataset = MathDataset(texts=train_df.text.values,task1_labels=train_df.is_correct.values,task2_labels=train_df.task2_encoded.values,task3_labels=train_df.task3_encoded.values,tokenizer=tokenizer,max_len=MAX_LEN)val_dataset = MathDataset(...)# 创建数据加载器train_loader = DataLoader(train_dataset,batch_size=BATCH_SIZE,shuffle=True,  # 训练集需要洗牌num_workers=NUM_WORKERS  # 多线程加载数据)val_loader = DataLoader(...)
  • 初始化多任务 BERT 模型,根据类别数量配置输出层
  • 使用 AdamWAdamWAdamW 优化器,这是一种改进的 Adam 优化器
  • 设置学习率调度器,使用 线性衰减 策略,为每个任务使用 交叉熵 损失函数
  • 初始化早停机制,防止过拟合
  • 创建字典记录训练过程中的各项指标
    # 初始化模型model = MultiTaskBert(num_task1_classes=2,  # 任务1:二分类num_task2_classes=len(task2_encoder.classes_),  # 任务2类别数num_task3_classes=len(task3_encoder.classes_)  # 任务3类别数)model = model.to(DEVICE)  # 将模型移至指定设备# 优化器和调度器optimizer = AdamW(model.parameters(), lr=LEARNING_RATE)  # AdamW优化器...# 损失函数loss_fn1 = torch.nn.CrossEntropyLoss()  # 任务1损失函数...# 初始化早停器early_stopper = EarlyStopper(patience=PATIENCE, min_delta=MIN_DELTA)# 训练历史记录history = {...}

前向传播计算三个任务的输出,加权组合三个任务的损失(权重可调整),梯度裁剪防止梯度爆炸,记录并显示每个epoch的平均训练损失

    # 训练循环(添加进度条)for epoch in range(EPOCHS):model.train()  # 设置为训练模式total_loss = 0  # 累计损失# 使用tqdm包装训练数据加载器(添加进度条)train_pbar = tqdm(train_loader, desc=f"Epoch {epoch+1}/{EPOCHS} Training", bar_format='{l_bar}{bar:20}{r_bar}{bar:-20b}',dynamic_ncols=True)for batch in train_pbar:# 准备批数据input_ids = batch['input_ids'].to(DEVICE)attention_mask = batch['attention_mask'].to(DEVICE)task1_labels = batch['task1_labels'].to(DEVICE)task2_labels = batch['task2_labels'].to(DEVICE)task3_labels = batch['task3_labels'].to(DEVICE)optimizer.zero_grad()  # 清零梯度# 前向传播task1_logits, task2_logits, task3_logits = model(input_ids=input_ids,attention_mask=attention_mask)# 计算各任务损失loss1 = loss_fn1(task1_logits, task1_labels)loss2 = loss_fn2(task2_logits, task2_labels)loss3 = loss_fn3(task3_logits, task3_labels)# 加权损失(权重可调整)loss = 0.4 * loss1 + 0.3 * loss2 + 0.3 * loss3total_loss += loss.item()  # 累加损失# 反向传播loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), 1.0)  # 梯度裁剪optimizer.step()  # 更新参数scheduler.step()  # 更新学习率# 更新进度条显示当前batch损失train_pbar.set_postfix({'batch_loss': f"{loss.item():.4f}",  # 当前批次损失'avg_loss': f"{total_loss / (train_pbar.n + 1):.4f}"  # 平均损失})# 计算平均训练损失avg_train_loss = total_loss / len(train_loader)history['train_loss'].append(avg_train_loss)

六、结果展示

训练过程输出如下所示:

在这里插入图片描述
训练 损失 和三个任务的 评估指标 随训练轮数(Epoch)的变化如下图所示:
请添加图片描述
随机测试的 101010 个样本预测结果(此处只展示个别样本输出):

样本 1:
文本: 问题: This is part of a regular polygon. How many sides does it have? [Image: A diagram showing an obtuse angle labelled 144 degrees] 答案: Not enough information 解释: because we kneed to know the total number of internal degrees.
任务1 (答案是否正确):
真实: 错误 | 预测: 错误
任务2 (误解类型):
真实: Misconception | 预测: Misconception
任务3 (具体误解):
真实: Unknowable | 预测: Unknowable


样本 2:
文本: 问题: The probability of an event occurring is ( 0.9 ).
Which of the following most accurately describes the likelihood of the event occurring? 答案: Likely 解释: because it is 0.9 which is close to 1 (certain) on the scale of probability.
任务1 (答案是否正确):
真实: 正确 | 预测: 正确
任务2 (误解类型):
真实: Correct | 预测: Correct
任务3 (具体误解):
真实: NA | 预测: NA


如果你喜欢我的文章,不妨给小周一个免费的点赞和关注吧!

http://www.dtcms.com/a/310897.html

相关文章:

  • Python 第一阶段测试题 答案及解析
  • Vuex 4.0:Vue.js 应用的状态管理新篇章
  • SLAM中的非线性优化-2D图优化之零空间实战(十六)
  • TiDB 和 MySQL 的迁移过程是什么?会遇到什么问题?怎么解决的?
  • 编译器工作原理的显微镜级拆解
  • 【读代码】 KAG项目:开源知识图谱自动构建与推理平台原理与实践
  • PYTHON从入门到实践-18Django从零开始构建Web应用
  • SpringBoot3.x入门到精通系列:2.1 自动配置原理
  • 【软考中级网络工程师】知识点之 VRRP
  • 关于Web前端安全防御CSRF攻防的几点考虑
  • 关于人工智能AI>ML>DL>transformer及NLP的关系
  • MySQL(173)MySQL中的存储过程和函数有什么区别?
  • 【DeepSeek-R1 】分词系统架构解析
  • 快速了解决策树
  • API征服者:Python抓取星链卫星实时轨迹
  • Docker 部署与配置 MySQL 5.7
  • 四、Portainer图形化管理实战与Docker镜像原理
  • 2024年网络安全案例
  • 从数据丢失到动画流畅:React状态同步与远程数据加载全解析
  • Jotai:React轻量级原子化状态管理,告别重渲染困扰
  • 《深潜React列表渲染:调和算法与虚拟DOM Diff的优化深解》
  • 《React+TypeScript实战:前端状态管理的安全架构与性能优化深解》
  • Oracle 11g RAC集群部署手册(三)
  • SQL 四大语言分类详解:DDL、DML、DCL、DQL
  • Oracle 11g RAC集群部署手册(一)
  • 探索:Uniapp 安卓热更新
  • flink写paimon表的过程解析
  • cmd怎么取消关机命令
  • 【DL学习笔记】yaml、json、随机种子、浮点精度、amp
  • hcip---ospf知识点总结及实验配置