当前位置: 首页 > news >正文

【营销策略算法】关联规则学习-购物篮分析

Apriori算法是关联规则学习领域中最经典、最著名的算法之一,用于从大规模数据集中发现有价值的关联规则。最典型的例子就是购物篮分析,通过分析顾客的购物篮,发现商品之间的关联关系,从而制定营销策略(如“买尿布的顾客经常也会买啤酒”)。


一、核心概念

在理解算法之前,需要先了解几个基本术语:

  1. 项集:一组物品的集合。例如 {牛奶, 面包} 就是一个包含两项的项集。

  2. 支持度:一个项集出现的频率,即它占总交易次数的百分比。

    • 公式Support(A) = (包含A的交易数) / (总交易数)

    • 意义:衡量项集的普遍性。支持度低的项集可能只是偶然出现,没有太大分析价值。

  3. 置信度:在包含项集A的交易中,同时也包含项集B的概率。它衡量的是规则 A → B 的可靠性。

    • 公式Confidence(A → B) = Support(A ∪ B) / Support(A)

    • 意义:如果买A的人很大概率也会买B,那么这条规则的置信度就高。

  4. 频繁项集:支持度不低于某个预先设定的最小值支持度的项集。

  5. 关联规则:形如 A → B 的规则,表示“如果A发生,那么B也可能发生”。其中A和B都是项集,且A ∩ B = ∅。

算法的目标:找到所有满足最小支持度最小置信度的关联规则。


二、Apriori算法的原理与步骤

Apriori算法的核心思想基于一个简单但强大的先验性质,这也是它名字的由来:

Apriori性质(先验原理):如果一个项集是频繁的,那么它的所有子集也一定是频繁的。反之,如果一个项集是非频繁的,那么它的所有超集也一定是非频繁的。

这个性质非常重要,因为它大大减少了需要计算的项集数量,避免了“组合爆炸”。

算法主要分为两个步骤:

  1. 找出所有频繁项集

  2. 从频繁项集中生成强关联规则

步骤一:找出所有频繁项集

这是一个迭代的过程,称为“逐层搜索”:

  1. 扫描数据库,计算每个单项的支持度,找出所有满足最小支持度的频繁1-项集

  2. 连接步:基于上一层的频繁项集,生成新的候选项集。

    • 例如,由频繁1-项集 {A}{B} 生成候选2-项集 {A, B}

  3. 剪枝步:利用Apriori性质,检查候选项集的所有子集是否都是频繁的。如果某个候选项集的子集不是频繁的,那么这个候选集也不可能是频繁的,可以直接剪枝掉

  4. 扫描数据库,计算剩余候选项集的支持度,找出满足最小支持度的频繁项集。

  5. 重复步骤2-4,直到不能再产生新的频繁项集为止。

步骤二:生成强关联规则

从上面找到的每个频繁项集中,生成所有可能的关联规则,并计算它们的置信度。

  1. 对于一个频繁项集L,生成L的所有非空子集S。

  2. 对于每个子集S,形成一条规则 S → (L - S)

  3. 计算每条规则的置信度。如果置信度满足最小置信度阈值,则保留这条规则,称为强关联规则


三、举例说明

假设我们有一个简单的交易数据库,最小支持度为50%,最小置信度为50%。

交易ID购买的商品
T1{牛奶, 面包}
T2{面包, 尿布}
T3{牛奶, 面包, 尿布}
T4{牛奶, 尿布}

第一步:找出频繁项集

  1. 计算所有1-项集的支持度

    • {牛奶}: 出现3次 -> 支持度 3/4 = 75%

    • {面包}: 出现3次 -> 支持度 3/4 = 75%

    • {尿布}: 出现3次 -> 支持度 3/4 = 75%

    • 所有支持度都 > 50%,所以频繁1-项集为:{牛奶}, {面包}, {尿布}

  2. 生成候选2-项集并剪枝

    • 连接得到候选:{牛奶,面包}, {牛奶,尿布}, {面包,尿布}

    • 它们的所有子集(都是1-项集)都是频繁的,所以无需剪枝。

    • 计算支持度:

      • {牛奶,面包}: 出现2次 (T1, T3) -> 支持度 50%

      • {牛奶,尿布}: 出现2次 (T3, T4) -> 支持度 50%

      • {面包,尿布}: 出现2次 (T2, T3) -> 支持度 50%

    • 所有支持度都 >= 50%,所以频繁2-项集为以上三个。

  3. 生成候选3-项集并剪枝

    • 连接得到候选:{牛奶,面包,尿布}

    • 检查其子集:{牛奶,面包}, {牛奶,尿布}, {面包,尿布} 都是频繁的,所以保留。

    • 计算支持度:{牛奶,面包,尿布} 出现1次 (T3) -> 支持度 25% < 50%

    • 因此,它不是频繁项集

    • 算法停止。

第二步:从频繁2-项集生成规则

以频繁项集 {牛奶, 尿布} 为例,生成所有可能的规则并计算置信度:

  • 规则1: {牛奶} → {尿布}

    • 置信度 = Support({牛奶,尿布}) / Support({牛奶}) = 50% / 75% ≈ 66.7% > 50% -> 强规则

  • 规则2: {尿布} → {牛奶}

    • 置信度 = Support({牛奶,尿布}) / Support({尿布}) = 50% / 75% ≈ 66.7% > 50% -> 强规则

同理,我们可以分析其他频繁项集,最终得到所有有价值的规则。


四、优缺点

优点

  • 原理简单,易于理解和实现。

  • 适用于稀疏数据集(如购物篮数据)。

缺点

  • 需要多次扫描数据库,I/O负载很大,效率较低。

  • 可能产生大量的候选集,尤其是在支持度阈值设置较低时,仍然会面临组合爆炸问题。

  • 海量数据集处理性能较差。

Apriori 算法因其“产生-测试”的框架和需要多次扫描数据库而存在固有的性能瓶颈。为了克服这些问题,研究人员提出了多种更高效的算法。

这些算法主要从两个方向进行优化:

  1. 减少数据库扫描次数:Apriori 需要为每个候选集扫描一次数据库,这是其主要开销。

  2. 避免产生大量的候选集:Apriori 会产生指数级增长的候选集,并进行繁琐的支持度计数。

五、其他更高效的代表性算法


1. FP-Growth(频繁模式增长)

这是最著名、最常用的 Apriori 替代方案,它彻底改变了发现频繁项集的方式。

  • 核心思想:采用“分而治之”的策略,将数据库压缩成一棵称为 FP-tree(频繁模式树) 的高度压缩的数据结构,然后直接在树上进行挖掘,而无需生成候选集。

  • 工作步骤

    1. 第一次扫描数据库:构建频繁项列表,按支持度降序排序。

    2. 第二次扫描数据库:构建 FP-tree。树的每个节点包含项名和计数。路径重叠的部分会合并,计数增加,这使得FP-tree非常紧凑。

    3. ** mining FP-tree:为每个项(从支持度最低的开始)构建条件模式基(指向该节点的所有前缀路径),然后根据这些基构建条件FP-tree**。递归地挖掘条件FP-tree,直到找到所有频繁项集。

  • 与Apriori对比的优势

    • 仅需两次数据库扫描

    • 完全不产生候选集,避免了候选集爆炸问题。

    • 效率通常比 Apriori 高出一个数量级。

  • 缺点:FP-tree 可能无法完全放入内存(对于海量数据集),构建和挖掘过程对实现技巧要求较高。


2. Eclat(Equivalence Class Clustering and bottom-up Lattice Traversal)

Eclat 算法采用了与 Apriori 和 FP-Growth 完全不同的数据布局。

  • 核心思想:使用垂直数据格式。它不是记录每个事务买了什么,而是记录每个项集出现在哪些事务中(即其 TID集)。

  • 工作步骤

    1. 将水平格式的数据转换为垂直格式,得到每个单项的 TID 集。

    2. 通过计算两个项集 TID 集的交集来计算它们的支持度。交集中的事务数就是支持度计数。

    3. 采用深度优先搜索策略(而非 Apriori 的广度优先)来遍历项集空间,利用交集操作来探索更长的项集。

  • 与Apriori对比的优势

    • 无需多次扫描数据库,所有信息都存储在 TID 集中。

    • 计算支持度(求交集)非常快,尤其适合内存充足的情况。

    • 深度优先搜索占用内存更少。

  • 缺点:对于长模式或密集数据集,TID 集可能会变得非常大,消耗大量内存。


3. 其他优化与变种算法
  • LCG (Linear Closed itemset Generator):专注于挖掘闭频繁项集。闭频繁项集是指其直接超集都不具有相同支持度的频繁项集。这可以极大地减少需要挖掘的项集数量,而不丢失任何信息(因为所有频繁项集都可以从闭频繁项集中推导出来)。

  • HMine:采用一种称为 H-Struct 的超数据结构,同样旨在减少数据库扫描次数和候选集生成,在某些场景下比 FP-Growth 更高效。

  • 基于哈希的算法:在 Apriori 的候选集生成过程中使用哈希表来快速计数和剪枝,可以一定程度优化性能。

六、总结与对比

特性AprioriFP-GrowthEclat
数据格式水平格式(事务->项)水平格式,压缩为FP-tree垂直格式(项->TID集)
搜索策略广度优先搜索分而治之深度优先搜索
候选集产生大量候选集不产生候选集产生候选集,但通过TID集操作
数据库扫描每次迭代都需要扫描仅需扫描两次转换后无需扫描
主要开销候选集生成与支持度计数FP-tree的构建与挖掘TID集的交集计算与存储
适用场景教学、小数据集通用、大数据集(最常用)内存充足、项不太多的数据集

结论:
对于大多数实际应用,FP-Growth 是替代 Apriori 的首选算法,因为它在大数据集上表现出的性能优势非常明显。而 Eclat 在特定类型的数据集(尤其是内存能装下 TID 集时)上也可能有极佳的表现。

因此,虽然 Apriori 是理解关联规则挖掘的“基石”,但在处理真实世界的数据时,FP-Growth 及其变体才是更高效、更实用的工业级选择。


文章转载自:

http://ploBxHB9.jtmrx.cn
http://scSagWlf.jtmrx.cn
http://pQusKOcb.jtmrx.cn
http://VDC2iZvT.jtmrx.cn
http://WLQcJsTe.jtmrx.cn
http://ggl439wQ.jtmrx.cn
http://erqsb2Nn.jtmrx.cn
http://idaqdHjX.jtmrx.cn
http://oBfd22eo.jtmrx.cn
http://TRdWGgLX.jtmrx.cn
http://3ZCqQoip.jtmrx.cn
http://bOZryRWH.jtmrx.cn
http://UqdrD1co.jtmrx.cn
http://CAAqF5ol.jtmrx.cn
http://CiKRujQj.jtmrx.cn
http://rZhiCDsY.jtmrx.cn
http://rcRkfILc.jtmrx.cn
http://7qb3ch39.jtmrx.cn
http://aQTbvXnj.jtmrx.cn
http://JoKU2bQJ.jtmrx.cn
http://1b4qTQOj.jtmrx.cn
http://TysQ8Ok8.jtmrx.cn
http://gMvrcwF3.jtmrx.cn
http://bRbFjRnm.jtmrx.cn
http://Ms1gfI9g.jtmrx.cn
http://tlBWcjWO.jtmrx.cn
http://pGxDA4vT.jtmrx.cn
http://tjawsjrn.jtmrx.cn
http://SJr1xIGy.jtmrx.cn
http://ekxffu7F.jtmrx.cn
http://www.dtcms.com/a/370475.html

相关文章:

  • 部署AIRI
  • 深度学习基础概念回顾(Pytorch架构)
  • 基于LSTM深度学习的网络流量测量算法matlab仿真
  • 【PyTorch实战:Tensor变形】5、 PyTorch Tensor指南:从基础操作到Autograd与GPU加速实战
  • 【基础-判断】@Entry装饰的自定义组件将作为页面的入口。在单个页面中可以使用多个@Entry装饰不同自定义组件。
  • 驱动开发系列71 - GLSL编译器实现 - 指令选择
  • 贪心算法应用:化工反应器调度问题详解
  • OpenAvatarChat项目在Windows本地运行指南
  • canal+DataX实现数据全量/实时同步
  • Jenkins运维之路(自动获得分支tag自动构建)
  • 服务器内存和普通计算机内存在技术方面有什么区别?
  • 同一台nginx中配置多个前端项目的三种方式
  • 【LeetCode热题100道笔记】排序链表
  • Shell 脚本实现系统监控与告警
  • 【算法--链表】86.分割链表--通俗讲解
  • 基于区块链的IoMT跨医院认证系统:Python实践分析
  • 用内存顺序实现 三种内存顺序模型
  • rh134第五章复习总结
  • Java包装类型
  • Linux awk 命令使用说明
  • 一个正常的 CSDN 博客账号,需要做哪些基础准备?
  • 文件I/O与I/O多路复用
  • protobuf的序列反序列化
  • Linux/UNIX系统编程手册笔记:共享库、进程间通信、管道和FIFO、内存映射以及虚拟内存操作
  • 吴恩达机器学习(九)
  • 基于多级特征编码器用于声学信号故障检测模型
  • 【LeetCode热题100道笔记】二叉树中的最大路径和
  • The Open Group 宣布成立Industrial Advanced Nuclear™ 联盟)
  • 问题:指令译码前控制信号还没有产生,那么如何控制译码前指令的动作呢?
  • 软件测试理论