当前位置: 首页 > news >正文

30天打好数模基础-逻辑回归讲解

案例代码实现

一、代码说明

本案例针对信用卡欺诈检测二分类问题,完整实现逻辑回归的数据生成→预处理→模型训练→评估→阈值调整→决策边界可视化流程。

数据生成:模拟1000条交易数据,其中欺诈样本占20%(类不平衡),特征包括交易金额、时间、是否异地、5分钟内交易次数。

预处理:标准化特征(避免尺度差异影响模型)。

模型训练:使用逻辑回归,通过class_weight处理类不平衡。

评估:计算精确率、召回率、F1-score,绘制ROC/PR曲线。

阈值调整:对比默认阈值(0.5)与高精确率阈值(0.7)的性能。

决策边界可视化:选取2个关键特征(交易金额、时间),绘制逻辑回归的决策边界(p=0.5)。

二、完整代码

# 导入必要库(小白需记住这些常用库)
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import (classification_report, roc_curve, auc,precision_recall_curve, confusion_matrix)# 设置随机种子(保证结果可重复)
np.random.seed(42)def generate_credit_card_data(n_samples=1000, fraud_ratio=0.2):"""生成信用卡交易模拟数据(小白重点理解特征分布差异)参数:n_samples: 总样本量fraud_ratio: 欺诈样本比例(类不平衡)返回:df: 包含特征和标签的DataFrame"""# 计算正常/欺诈样本量n_fraud = int(n_samples * fraud_ratio)n_normal = n_samples - n_fraud# ---------------------- 1. 生成正常交易数据(0类) ----------------------normal_data = {'金额': np.random.normal(loc=1000, scale=200, size=n_normal),  # 正常金额:均值1000,标准差200'时间': np.random.randint(low=10, high=21, size=n_normal),       # 正常时间:10-20点(白天)'是否异地': np.random.binomial(n=1, p=0.1, size=n_normal),        # 正常异地:10%概率'5分钟内交易次数': np.random.poisson(lam=1, size=n_normal)         # 正常次数:均值1次}normal_df = pd.DataFrame(normal_data)normal_df['标签'] = 0  # 0=正常# ---------------------- 2. 生成欺诈交易数据(1类) ----------------------fraud_data = {'金额': np.random.normal(loc=5000, scale=1000, size=n_fraud), # 欺诈金额:均值5000,标准差1000(更大)'时间': np.random.randint(low=0, high=6, size=n_fraud),        # 欺诈时间:0-5点(凌晨)'是否异地': np.random.binomial(n=1, p=0.8, size=n_fraud),        # 欺诈异地:80%概率(更高)'5分钟内交易次数': np.random.poisson(lam=3, size=n_fraud)         # 欺诈次数:均值3次(更频繁)}fraud_df = pd.DataFrame(fraud_data)fraud_df['标签'] = 1  # 1=欺诈# ---------------------- 3. 合并数据并打乱顺序 ----------------------df = pd.concat([normal_df, fraud_df], ignore_index=True)df = df.sample(frac=1, random_state=42).reset_index(drop=True)  # 打乱顺序return dfdef plot_roc_pr_curve(y_true, y_prob):"""绘制ROC曲线和PR曲线(评估模型性能的关键图)"""# ROC曲线fpr, tpr, _ = roc_curve(y_true, y_prob)roc_auc = auc(fpr, tpr)# PR曲线precision, recall, _ = precision_recall_curve(y_true, y_prob)# 绘图fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(12, 5))# ROC曲线ax1.plot(fpr, tpr, color='blue', label=f'ROC曲线 (AUC={roc_auc:.2f})')ax1.plot([0, 1], [0, 1], color='gray', linestyle='--', label='随机猜测')ax1.set_xlabel('假阳性率(FPR)')ax1.set_ylabel('真阳性率(TPR)')ax1.set_title('ROC曲线(评估整体区分能力)')ax1.legend()# PR曲线ax2.plot(recall, precision, color='green', label='PR曲线')ax2.set_xlabel('召回率(Recall)')ax2.set_ylabel('精确率(Precision)')ax2.set_title('PR曲线(评估类不平衡下的性能)')ax2.legend()plt.tight_layout()plt.show()def plot_decision_boundary(model, X, y, scaler, feature1='金额', feature2='时间'):"""绘制逻辑回归的决策边界(小白重点理解:线性模型如何划分类别)参数:model: 训练好的逻辑回归模型X: 特征数据(DataFrame)y: 标签数据scaler: 训练集的标准化器(用于网格数据标准化)feature1: 横轴特征feature2: 纵轴特征"""# 选取两个特征,固定其他特征为均值(或模式)# 其他特征:是否异地(取0,本地)、5分钟内交易次数(取1,正常次数)fixed_features = {'是否异地': 0,'5分钟内交易次数': 1}# 生成网格点(覆盖两个特征的取值范围)x1 = np.linspace(X[feature1].min(), X[feature1].max(), 100)x2 = np.linspace(X[feature2].min(), X[feature2].max(), 100)X1, X2 = np.meshgrid(x1, x2)# 构造网格点的特征数据(包含固定特征,保持与原数据列顺序一致)grid_data = pd.DataFrame({feature1: X1.ravel(),feature2: X2.ravel(),**fixed_features})# 调整列顺序与原数据一致(避免标准化时特征顺序错误)grid_data = grid_data[X.columns]# 标准化网格点特征(使用训练集的标准化器)grid_data_scaled = scaler.transform(grid_data)# 预测网格点的概率(p=0.5是决策边界)y_prob_grid = model.predict_proba(grid_data_scaled)[:, 1]y_prob_grid = y_prob_grid.reshape(X1.shape)# 绘制决策边界(p=0.5的等高线)plt.figure(figsize=(10, 6))contour = plt.contourf(X1, X2, y_prob_grid, levels=[0, 0.5, 1], cmap='RdBu', alpha=0.3)plt.colorbar(contour, label='欺诈概率')# 绘制样本点(正常=蓝色,欺诈=红色)sns.scatterplot(x=X[feature1], y=X[feature2], hue=y, palette={0: 'blue', 1: 'red'}, alpha=0.7, edgecolor='black')# 添加标签和标题plt.xlabel(feature1)plt.ylabel(feature2)plt.title(f'逻辑回归决策边界({feature1} vs {feature2})')plt.legend(title='标签', labels=['正常', '欺诈'])plt.show()# ---------------------- 主程序:逻辑回归完整流程 ----------------------
if __name__ == '__main__':# 1. 生成模拟数据(小白可调整n_samples和fraud_ratio)df = generate_credit_card_data(n_samples=1000, fraud_ratio=0.2)print("数据形状:", df.shape)print("标签分布:\n", df['标签'].value_counts(normalize=True))  # 查看类不平衡情况(正常80%,欺诈20%)# 2. 划分特征(X)和标签(y)X = df.drop('标签', axis=1)y = df['标签']# 3. 拆分训练集和测试集(70%训练,30%测试)X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42, stratify=y)print("训练集形状:", X_train.shape)print("测试集形状:", X_test.shape)# 4. 特征标准化(避免尺度差异影响模型,必须fit在训练集上)scaler = StandardScaler()X_train_scaled = scaler.fit_transform(X_train)X_test_scaled = scaler.transform(X_test)# 5. 训练逻辑回归模型(处理类不平衡:class_weight='balanced')model = LogisticRegression(class_weight='balanced', random_state=42)model.fit(X_train_scaled, y_train)# 输出模型参数(小白可解释特征重要性)print("\n模型权重(w):", model.coef_[0])print("模型偏置(b):", model.intercept_[0])print("特征重要性(绝对值越大,对欺诈的贡献越大):")for feature, weight in zip(X.columns, model.coef_[0]):print(f"  {feature}: {weight:.2f}")# 6. 预测测试集(概率和类别)y_prob = model.predict_proba(X_test_scaled)[:, 1]  # 欺诈概率y_pred = model.predict(X_test_scaled)  # 默认阈值0.5的预测类别# 7. 评估模型性能(默认阈值0.5)print("\n---------------------- 默认阈值(0.5)评估 ----------------------")print("混淆矩阵:\n", confusion_matrix(y_test, y_pred))print(classification_report(y_test, y_pred))# 绘制ROC/PR曲线(评估整体性能)plot_roc_pr_curve(y_test, y_prob)# 8. 调整阈值(比如提高到0.7,追求高精确率,避免误判正常交易)threshold = 0.7y_pred_high_precision = (y_prob >= threshold).astype(int)print(f"\n---------------------- 阈值={threshold}评估 ----------------------")print("混淆矩阵:\n", confusion_matrix(y_test, y_pred_high_precision))print(classification_report(y_test, y_pred_high_precision))# 9. 绘制决策边界(选取“金额”和“时间”两个关键特征,传入标准化器)plot_decision_boundary(model, X_test, y_test, scaler, feature1='金额', feature2='时间')

三、代码使用说明

1.环境准备

需要安装以下库(小白可通过pipinstall库名安装):numpy pandas matplotlib seaborn scikit-learn

2.运行代码

直接运行脚本,会依次执行:

生成模拟数据(1000条,20%欺诈);

划分训练集/测试集(7:3);

标准化特征;

训练逻辑回归模型(处理类不平衡);

输出模型参数(特征重要性);

评估默认阈值(0.5)的性能(混淆矩阵、分类报告);

绘制ROC/PR曲线;

评估高阈值(0.7)的性能;

绘制“金额vs时间”的决策边界。

3.结果解读

特征重要性:比如“金额”的权重为正(约1.5),说明金额越大,欺诈概率越高;“时间”的权重为负(约-0.8),说明时间越早(凌晨),欺诈概率越高(符合模拟逻辑)。

ROC曲线:AUC约0.95,说明模型区分正常和欺诈的能力很强。

PR曲线:精确率随召回率下降而上升,说明类不平衡下,模型对欺诈样本的识别能力较好。

决策边界:图中蓝色区域是正常交易(概率<0.5),红色区域是欺诈交易(概率>0.5)。可以看到,金额大、时间早的样本更可能被划分为欺诈(符合模拟数据的规律)。

4.小白可调整的参数

数据生成:generate_credit_card_data中的n_samples(总样本量)、fraud_ratio(欺诈比例);

模型训练:LogisticRegression中的C(正则化强度,越小正则化越强)、solver(优化器,比如'lbfgs'是默认,适合小数据);

阈值调整:threshold(比如0.6、0.8,观察精确率和召回率的变化);

决策边界:plot_decision_boundary中的feature1和feature2(比如换成“是否异地”和“5分钟内交易次数”,观察不同特征的边界)。

四、关键结论

逻辑回归适合线性可分的分类问题(比如本案例中,欺诈样本的特征明显更极端);

类不平衡处理:使用class_weight='balanced'可以让模型更重视少数类(欺诈);

阈值调整:根据任务需求选择阈值(比如欺诈检测需要高精确率,可提高阈值);

可解释性:模型权重可以直接解释特征对类别的贡献(小白能听懂的“为什么这个交易是欺诈”)。

通过这个案例,小白可以掌握逻辑回归的完整流程,理解每个步骤的作用,以及如何根据任务需求调整模型参数。

http://www.dtcms.com/a/289811.html

相关文章:

  • 7-大语言模型—指令理解:指令微调训练+模型微调
  • 【算法训练营Day15】二叉树part5
  • 编程研发工作日记
  • 050_Set接口(HashSet / TreeSet / LinkedHashSet)
  • 力扣面试150题--搜索插入位置
  • 某市公安局视频图像信息综合应用平台设计方案Word(446页)
  • AI产品经理面试宝典第40天:用户反馈处理与技术应用面试题与答法
  • 多校2+多校1的遗珠
  • 信道相关系数
  • 安装kali时出现“安装步骤失败“如何解决及后续软件安装
  • Python自动化测试项目实战
  • QT项目-仿QQ音乐的音乐播放器(第一节)
  • 什么是卡贴???
  • 国产电钢琴性价比实战选购指南
  • Python 虚拟环境与构建工具全景指南:功能介绍与对比分析
  • 基于Transformer的心理健康对话系统:从零构建AI心理咨询助手
  • 【全球甲烷估算模型】简化一箱模型(1-box model)
  • MySQL中的排序和分页
  • [simdjson] 实现不同CPU调度 | 自动硬件适配的抽象
  • C 语言经典编程题实战:从基础算法到趣味问题全解析
  • MybatisPlus-09.核心功能-IService开发复杂业务接口
  • 论文阅读:BLIP-2 (2023.4)
  • KOSMOS-2: 将多模态大型语言模型与世界对接
  • 第一章: 初识 Redis:背后的特性和典型应用场景
  • 你的created_time字段,用DATETIME还是TIMESTAMP?
  • brpc的安装与使用介绍以及channel的封装
  • spring-ai-alibaba 迭代字符分割器
  • RPG61.制作敌人攻击波数一
  • 30天打牢数模基础-AdaBoost讲解
  • CICS Application Programming Fundamentals 第8-6章