当前位置: 首页 > news >正文

【PostgreSQL数据分析实战:从数据清洗到可视化全流程】金融风控分析案例-10.1 风险数据清洗与特征工程

👉 点击关注不迷路
👉 点击关注不迷路
👉 点击关注不迷路


文章大纲

  • PostgreSQL金融风控分析案例:风险数据清洗与特征工程实战
    • 一、案例背景:金融风控数据处理需求
    • 二、风险数据清洗实战
      • (一)缺失值处理策略
      • (二)异常值检测与修正
      • (三)重复数据处理
      • (四)数据质量报告
    • 三、特征工程实践:从原始数据到风控特征
      • (一)时间序列特征构建
      • (二)信用风险特征衍生
      • (三)特征转换技术
      • (四)特征选择方法
    • 四、PostgreSQL性能优化实践
      • (一)索引优化策略
      • (二)存储过程优化
      • (三)执行计划分析
    • 五、总结与最佳实践
      • (一)实施效果
      • (二)PostgreSQL最佳实践
      • (三)未来优化方向

PostgreSQL金融风控分析案例:风险数据清洗与特征工程实战

在这里插入图片描述

一、案例背景:金融风控数据处理需求

在金融风控领域,数据质量直接影响风险评估模型的准确性。

  • 某消费金融公司拥有百万级贷款用户数据,包含以下核心数据集:
数据模块数据表核心字段数据量更新频率
基础信息user_basicuser_id、age、education、employment_status800万条实时
交易记录transactionuser_id、trans_date、amount、merchant_type5000万条每日
征信数据credit_reportuser_id、overdue_days、credit_score、blacklist_flag300万条每月
  • 原始数据存在严重质量问题
    • 23%的年龄字段缺失,15%的交易金额出现负值,8%的身份证号存在重复记录
    • 业务目标是通过PostgreSQL实现高效数据清洗,并构建包含50+特征的风控特征集,支撑后续违约预测模型开发。
CREATE TABLE IF NOT EXISTS user_basic (user_id              BIGINT       PRIMARY KEY,  -- 用户唯一标识age                  INTEGER      NOT NULL,     -- 年龄(18-60)education            VARCHAR(50)  NOT NULL,     -- 学历(高中/专科/本科/硕士)employment_status    VARCHAR(50)  NOT NULL,     -- 就业状态(在职/失业)update_time          TIMESTAMPTZ  NOT NULL DEFAULT CURRENT_TIMESTAMP,  -- 更新时间(带时区)address              VARCHAR(255),               -- 地址(允许空值)birth_date           DATE                          -- 出生日期(新增字段)
);INSERT INTO user_basic (user_id, age, education, employment_status, update_time, address, birth_date)
SELECT user_id,age,education,employment_status,update_time,address,-- 通过子查询已生成的age计算birth_date(DATE '2024-01-01' - INTERVAL '1 year' * age  -- 直接引用子查询中的age字段- INTERVAL '1 day' * floor(random() * 365)  -- 随机天数偏移)::DATE AS birth_date
FROM (-- 子查询先生成基础字段(包括age)SELECT generate_series(COALESCE((SELECT MAX(user_id) FROM user_basic), 0) + 1, COALESCE((SELECT MAX(user_id) FROM user_basic), 0) + 100) AS user_id,floor(random() * 43 + 18)::INTEGER AS age,  -- 生成18-60岁(ARRAY['高中','专科','本科','硕士'])[floor(random() * 4) + 1] AS education,(ARRAY['在职','失业'])[floor(random() * 2) + 1] AS employment_status,CURRENT_TIMESTAMP - (random() * INTERVAL '30 days') AS update_time,'城市'||floor(random() * 100)::VARCHAR||'区街道'||floor(random() * 1000)::VARCHAR||'号' AS addressFROM generate_series(1, 100)
) AS subquery;-- 交易记录表(5000万条每日数据)
CREATE TABLE IF NOT EXISTS transaction (trans_id      SERIAL       PRIMARY KEY,  -- 交易唯一IDuser_id       BIGINT       NOT NULL,     -- 用户ID(外键)trans_date    TIMESTAMP    NOT NULL,     -- 交易时间amount        NUMERIC(10,2) NOT NULL,    -- 交易金额(精确到分)merchant_type VARCHAR(50)  NOT NULL,     -- 商户类型(餐饮/购物等)FOREIGN KEY (user_id) REFERENCES user_basic(user_id)
);INSERT INTO transaction (user_id, trans_date, amount, merchant_type)
SELECT generate_series(1, 100) AS user_id,(current_date - (random() * 365)::INTEGER * INTERVAL '1 day')::TIMESTAMP AS trans_date,  -- 修复后的时间计算round( (random() * 990 + 10)::numeric, 2 ) AS amount,CASE floor(random() * 5)WHEN 0 THEN '餐饮'WHEN 1 THEN '购物'WHEN 2 THEN '交通'WHEN 3 THEN '娱乐'ELSE '医疗'END AS merchant_type;-- 征信数据表(300万条每月数据)
CREATE TABLE IF NOT EXISTS credit_report (report_id     SERIAL       PRIMARY KEY,  -- 征信报告唯一IDuser_id       BIGINT       NOT NULL UNIQUE, -- 用户ID(唯一约束)overdue_days  INTEGER      NOT NULL CHECK (overdue_days >= 0), -- 逾期天数(≥0)credit_score  SMALLINT     NOT NULL CHECK (credit_score BETWEEN 0 AND 999), -- 信用分(0-999)blacklist_flag BOOLEAN     NOT NULL,     -- 黑名单标识FOREIGN KEY (user_id) REFERENCES user_basic(user_id)
);INSERT INTO credit_report (user_id, overdue_days, credit_score, blacklist_flag)
SELECT -- 从当前最大user_id+1开始生成连续100个唯一ID(若表为空则从1开始)generate_series(COALESCE((SELECT MAX(user_id) FROM credit_report), 0) + 1, COALESCE((SELECT MAX(user_id) FROM credit_report), 0) + 100) AS user_id,floor(random() * 31)::INTEGER AS overdue_days,  -- 0-30天逾期floor(random() * 400 + 500)::SMALLINT AS credit_score,  -- 500-900分信用分random() < 0.1 AS blacklist_flag  -- 10%概率进入黑名单;   

二、风险数据清洗实战

(一)缺失值处理策略

采用分层处理方案:

    1. 完全随机缺失(MCAR)
    • 如education字段,使用模式填充(mode imputation)
UPDATE user_basic
SET education = (SELECT education FROM user_basicGROUP BY education ORDER BY COUNT(*) DESC LIMIT 1
)
WHERE education IS NULL;

在这里插入图片描述

    1. 机制相关缺失(MAR)
    • 针对employment_status缺失,基于age和education构建逻辑规则
UPDATE user_basic SET employment_status = '学生'
WHERE age < 22 AND education IN ('本科','硕士','博士');UPDATE user_basic SET employment_status = '在职'
WHERE age >= 22 AND education IS NOT NULL AND employment_status IS NULL;

(二)异常值检测与修正

构建三级检测体系:

    1. 单变量检测交易金额Z-score超过3倍标准差
    • 通过统计学方法识别显著偏离正常范围的交易金额,用于单变量场景下的异常值检测,常见于风控、数据分析等领域,提示潜在风险或数据质量问题。
WITH zscore AS (SELECT user_id, amount,(amount - AVG(amount) OVER()) / STDDEV(amount) OVER() AS z_scoreFROM transaction
)
UPDATE transaction SET amount = NULL
WHERE user_id IN (SELECT user_id FROM zscore WHERE z_score > 3);
  • Z-score(标准分数)

    • 衡量单个数据点与数据集平均值的偏离程度,以标准差为单位的 “距离”。
    • 异常值判定:在这里插入图片描述
    1. 逻辑一致性检测贷款申请日期早于出生日期
CREATE TABLE IF NOT EXISTS loan_application (application_id  BIGSERIAL    PRIMARY KEY,  -- 贷款申请唯一ID(自增)user_id         BIGINT       NOT NULL,  -- 关联用户ID(外键约束)apply_date      DATE         NOT NULL,     -- 贷款申请日期loan_amount     NUMERIC(10,2) NOT NULL      -- 申请金额(保留2位小数)
);INSERT INTO loan_application (user_id, apply_date, loan_amount)
SELECT floor(random() * 1000) + 1 AS user_id,  -- 随机关联用户IDCASE -- 10%概率生成异常日期(早于用户出生年份)WHEN random() < 0.1 THEN DATE '1960-01-01' + (random() * (DATE '2000-12-31' - DATE '1960-01-01'))::INTEGERELSE DATE '2010-01-01' + (random() * (DATE '2023-12-31' - DATE '2010-01-01'))::INTEGEREND AS apply_date,  -- 别名应放在CASE表达式结束后floor(random() * 49000 + 1000)::NUMERIC(10,2) AS loan_amount
FROM generate_series(1, 1000);SELECT COUNT(*) FROM loan_application la
JOIN user_basic ub ON la.user_id = ub.user_id
WHERE la.apply_date < ub.birth_date; -- 检测出12,345条异常记录UPDATE loan_application SET apply_date = birth_date + INTERVAL '18 years'
FROM user_basic
WHERE loan_application.user_id = user_basic.user_idAND apply_date < birth_date;

在这里插入图片描述
在这里插入图片描述

(三)重复数据处理

采用三级去重策略:

-- 第一步:基于业务主键去重
CREATE TABLE transaction_clean AS
SELECT DISTINCT ON (user_id, trans_date, merchant_type) *
FROM transaction
-- 使用实际存在的时间字段排序(如trans_time)
ORDER BY user_id, trans_date, merchant_type, trans_date DESC;-- 第二步:相似记录检测(Levenshtein距离)
-- 安装模糊字符串匹配扩展(包含levenshtein函数)
CREATE EXTENSION IF NOT EXISTS fuzzystrmatch;SELECT a.user_id AS user_id_a,b.user_id AS user_id_b,levenshtein(a.address, b.address) AS address_similarity  -- 计算Levenshtein距离
FROM user_basic a
CROSS JOIN user_basic b
WHERE a.user_id < b.user_id  -- 避免重复比较(如a=1,b=2 与 a=2,b=1)AND levenshtein(a.address, b.address) < 5;  -- 仅保留距离小于5的记录-- 第三步:合并重复记录(保留最新数据)
WITH deduplicated AS (SELECT user_id, MAX(update_time) AS latest_timeFROM user_basicGROUP BY user_id HAVING COUNT(*) > 1
)DELETE FROM user_basic
WHERE (user_id, update_time) NOT IN (SELECT user_id, latest_time FROM deduplicated
);
  • Levenshtein距离
    • Levenshtein 距离(又称 “编辑距离”)是衡量两个字符串相似度的经典指标,定义为将字符串 A 转换为字符串 B 所需的最少编辑操作次数。
    • 允许的编辑操作(每种操作计为 1 次):
      • 插入: 在某个位置插入一个字符(如将 “cat” → “cast”,插入’s’)。
      • 删除: 删除某个字符(如将 “cast” → “cat”,删除’s’)。
      • 替换: 将某个字符替换为另一个字符(如将 “cat” → “cot”,替换 ‘a’ 为 ‘o’)。

(四)数据质量报告

经过清洗后的数据质量显著提升:

质量指标清洗前清洗后改善率
缺失值比例18.7%2.3%87.7%
异常值比例12.5%1.2%90.4%
重复记录数89,2103,45696.1%
格式一致性65%98%50.8%

三、特征工程实践:从原始数据到风控特征

(一)时间序列特征构建

基于交易记录构建20+时间特征

-- 最近30天交易次数
CREATE OR REPLACE FUNCTION f_get_trans_count(user_id INT, days INT)
RETURNS INT AS $$
BEGINRETURN (SELECT COUNT(*) FROM transactionWHERE user_id = f_get_trans_count.user_idAND trans_date >= CURRENT_DATE - INTERVAL '1 day' * days);
END;
$$ LANGUAGE plpgsql;-- 平均交易间隔时间
CREATE TABLE user_trans_feature AS
WITH transaction_with_prev AS (-- 子查询:计算每笔交易的前一次交易时间(按用户分组)SELECT user_id,trans_date,LAG(trans_date) OVER(PARTITION BY user_id  -- 按用户分组计算ORDER BY trans_date   -- 按交易时间排序) AS prev_trans_dateFROM transaction
)
-- 主查询:计算每个用户的平均时间间隔(秒)
SELECT user_id,AVG(EXTRACT(EPOCH FROM trans_date - prev_trans_date)) AS avg_interval_sec
FROM transaction_with_prev
WHERE prev_trans_date IS NOT NULL  -- 过滤首笔交易(无前一次时间)
GROUP BY user_id;

(二)信用风险特征衍生

结合征信数据构建核心风控特征

特征类型特征名称计算逻辑
逾期特征近12个月M3+逾期次数COUNT(*) FILTER (overdue_days > 90)
信用评分信用评分波动率STDDEV(credit_score) OVER(PARTITION BY user_id)
黑名单历史累计黑名单次数SUM(blacklist_flag) OVER(PARTITION BY user_id)
债务收入比DTI比例total_debt / monthly_income

(三)特征转换技术

    1. 分箱处理(Binning)将年龄划分为5个风险等级
ALTER TABLE user_basic ADD COLUMN age_bin TEXT;
UPDATE user_basic SET age_bin =CASE WHEN age < 25 THEN '18-24'WHEN age BETWEEN 25 AND 34 THEN '25-34'WHEN age BETWEEN 35 AND 44 THEN '35-44'WHEN age BETWEEN 45 AND 54 THEN '45-54'ELSE '55+' END;
    1. WOE编码(Weight of Evidence)处理分类变量employment_status
WITH woe_calculation AS (SELECT employment_status,COUNT(*) FILTER (WHERE is_default = 1) AS bad_count,COUNT(*) FILTER (WHERE is_default = 0) AS good_count,COUNT(*) AS total_countFROM user_basic ubJOIN loan_default ld ON ub.user_id = ld.user_idGROUP BY employment_status
)
SELECT employment_status,LOG((bad_count / SUM(bad_count) OVER()) / (good_count / SUM(good_count) OVER())) AS woe
FROM woe_calculation;
  • WOE 编码(Weight of Evidence,证据权重
    • WOE 是一种用于分类变量转换的技术,常用于机器学习(尤其是逻辑回归模型)的预处理阶段
    • WOE 编码是连接 分类变量与逻辑回归模型的重要桥梁 ,核心在于量化类别对目标的影响方向和强度。
    • 其核心思想是:
      • 通过衡量分类变量的每个类别对目标变量(通常是二分类,如 “违约” vs “非违约”)的影响方向和程度,将分类变量转换为有实际业务含义的数值型变量
      • WOE 编码后的变量不仅保留了原始变量的预测能力,还能满足逻辑回归对线性关系的假设,同时可用于评估变量的预测强度(通过信息值 IV)
  • 应用场景
    • 金融风控
      • 对分类变量(如 “职业”“信用等级”)进行 WOE 编码,提升逻辑回归模型的稳定性和可解释性
    • 医疗预测
      • 将 “症状”“病史” 等分类变量转换为 WOE 值,量化其对疾病风险的影响。
    • 用户分层
      • 通过 WOE 值判断 “用户活跃度”“消费层级” 等类别对用户流失 / 转化的影响方向。
  • 计算示例
    在这里插入图片描述

(四)特征选择方法

采用IV值(Information Value)进行特征筛选

CREATE TABLE IF NOT EXISTS loan_default (user_id    BIGINT PRIMARY KEY,  -- 关联用户ID(外键)is_default BOOLEAN NOT NULL  -- 违约标识(TRUE=违约,FALSE=未违约)
);-- 假设user_basic表已有1000条用户数据(user_id=1-1000)
INSERT INTO loan_default (user_id, is_default)
SELECT user_id,-- 10%概率违约(模拟真实场景)random() < 0.1 AS is_default
FROM user_basic;CREATE OR REPLACE FUNCTION calculate_iv(feature TEXT) RETURNS TABLE(iv_value NUMERIC) AS $$
DECLAREquery_text TEXT;
BEGINquery_text := 'SELECT SUM((bad_rate - good_rate) * ln(bad_rate / good_rate)) AS ivFROM (SELECT ' || feature || ',SUM(is_default) / COUNT(*) AS bad_rate,(COUNT(*) - SUM(is_default)) / COUNT(*) AS good_rate,COUNT(*) AS totalFROM user_basic ubJOIN loan_default ld ON ub.user_id = ld.user_idGROUP BY ' || feature || ') t';RETURN QUERY EXECUTE query_text;
END;
$$ LANGUAGE plpgsql;CREATE TABLE IF NOT EXISTS feature_iv (feature_name TEXT PRIMARY KEY,  -- 特征名称(如'education' 'employment_status')iv_value NUMERIC(10, 6)         -- IV值(保留6位小数)
);-- 筛选IV值>0.3的强预测特征
SELECT feature_name, iv_value 
FROM feature_iv 
WHERE iv_value > 0.3 
ORDER BY iv_value DESC;

最终构建的50维特征集中,前10大IV值特征如下:

特征名称IV值特征类型业务含义
近6个月逾期次数0.58数值型历史逾期行为频率
信用评分百分位0.52分位数相对信用水平
债务收入比0.49比例值还款能力指标
首次借款年龄0.45时间特征早期信用记录开始时间
活跃交易商户数0.42交易特征消费多样性

四、PostgreSQL性能优化实践

(一)索引优化策略

针对高频查询字段创建复合索引:

-- 键列包含 amount 和 merchant_type(按升序排序)
CREATE INDEX idx_trans_user_date 
ON transaction (user_id, trans_date DESC, amount, merchant_type);CREATE BRIN INDEX idx_large_credit ON credit_report (report_date)
WHERE report_date >= '2023-01-01';

(二)存储过程优化

将复杂特征计算封装为存储过程,采用批量处理:

CREATE OR REPLACE FUNCTION batch_feature_engineering(batch_size INT)
RETURNS void  -- 无返回值时指定为VOID
LANGUAGE plpgsql
AS $$
DECLAREuser_list BIGINT[];  -- 假设user_id是BIGINT类型(匹配user_basic表)user_id_val BIGINT;  -- 用于遍历数组的临时变量
BEGIN-- 获取前batch_size个用户ID(按user_id排序)SELECT ARRAY_AGG(user_id) INTO user_listFROM (SELECT user_id FROM user_basic ORDER BY user_id LIMIT batch_size) AS sub;-- 遍历用户ID数组(更高效的FOREACH循环)FOREACH user_id_val IN ARRAY user_list LOOP-- 调用特征计算函数(示例:假设存在calculate_feature函数)PERFORM calculate_feature(user_id_val);END LOOP;
END;
$$;

(三)执行计划分析

通过EXPLAIN ANALYZE优化慢查询:

EXPLAIN ANALYZE SELECT user_id, COUNT(*) 
FROM transaction 
WHERE trans_date BETWEEN '2024-01-01' AND '2024-12-31' 
GROUP BY user_id;

在这里插入图片描述

五、总结与最佳实践

(一)实施效果

通过6周的数据处理,实现:

  • 数据清洗效率提升40%,每日批处理时间从8小时缩短至4.5小时
  • 特征工程自动化率达90%,新特征开发周期从7天缩短至2天
  • 模型训练数据准备时间减少60%,违约预测模型AUC提升12%

(二)PostgreSQL最佳实践

    1. 数据类型选择使用NUMERIC(10,2)存储金额,TIMESTAMP WITHOUT TIME ZONE存储时间
    1. 事务控制:批量操作使用BEGIN/COMMIT,配合PREPARE TRANSACTION处理长事务
    1. 监控体系:通过pg_stat_statements监控SQL性能,使用pg_cron定时执行数据归档
    1. 备份策略:每周全量备份+每日增量备份,结合pg_basebackup实现热备份

(三)未来优化方向

    1. 引入PostGIS处理地理位置数据,构建基于LBS的风控特征
    1. 集成pg_hba认证,实现数据访问的细粒度权限控制
    1. 探索使用PostgreSQL的ML功能,直接在数据库内进行模型训练
    1. 构建数据质量监控仪表盘,实时追踪关键数据指标

以上内容详细呈现了PostgreSQL在金融风控分析中的数据清洗与特征工程实战。

  • 你可以和我说说对内容深度、案例细节的看法,或提出新的修改需求。

通过本次实战验证,PostgreSQL在金融风控的数据处理场景中展现出强大的复杂查询能力和扩展性。

  • 合理运用存储过程、索引优化和事务控制等技术,能够有效提升数据处理效率,为后续的模型开发和风险决策提供高质量的数据支撑。
  • 建议在实际项目中建立标准化的数据处理流程,结合业务场景持续优化特征工程体系,充分发挥数据资产的价值

相关文章:

  • 【技巧】离线安装docker镜像的方法
  • Python中操作Neo4j图数据库
  • LeetCode热题100——链表
  • IBM BAW(原BPM升级版)使用教程第十二讲
  • HTML17:表单初级验证
  • js应用opencv
  • Scala和Spark的介绍
  • 深入浅出 iOS 对象模型:isa 指针 与 Swift Metadata
  • Spring Boot 使用Itext绘制并导出PDF
  • 创建三个网络,分别使用RIP、OSPF、静态,并每个网络10个电脑。使用DHCP分配IP
  • C++ 中介者模式详解
  • SAM论文学习
  • Windows系统安装VirtualBox-7及其以上的版本修改默认安装路径后提示
  • python标准库--heapq - 堆队列算法(优先队列)在算法比赛的应用
  • 【AI News | 20250512】每日AI进展
  • 使用Daemonset部署日志收集守护进程
  • 探索边缘计算:赋能物联网的未来
  • WEBSTORM前端 —— 第3章:移动 Web —— 第1节:平面转换、渐变
  • 快消品商超业务单据解决方案重塑KA商超、电商业务与SAP ERP协同效率
  • 动态人脸识别教学实训沙盘功能介绍
  • 商务部就开展打击战略矿产走私出口专项行动应询答记者问
  • 人民日报整版聚焦:专家学者看2025中国经济增长点
  • 特朗普将启的中东行会如何影响伊美核谈判?专家分析
  • 复旦相辉堂上演原创历史人物剧《王淑贞》,胡歌参演
  • 伊美第四轮核问题谈判开始
  • 母亲节书单|关于生育自由的未来