当前位置: 首页 > news >正文

图机器学习(11)——链接预测

图机器学习(11)——链接预测

    • 0. 链接预测
    • 1. 基于相似性的方法
      • 1.1 基于指标的方法
      • 1.2 基于社区的方法
    • 2. 基于嵌入的方法

0. 链接预测

链接预测 (link prediction),也称为图补全,是处理图时常见的问题。具体而言,给定一个部分观测的图(即某些节点对之间是否存在边无法确定),我们的目标是预测未知状态节点对之间是否存在边,如下图所示。

链接预测

设图 G=(V,E)G=(V,E)G=(V,E) 的节点集为 VVV,边集为 E=Eo∪EuE=E_o\cup E_uE=EoEu。其中,边集 EoE_oEo 表示已知边(观测到的链接),而边集 EuE_uEu 表示未知边(待预测的链接)。链接预测的目标是利用 VVVEoE_oEo 的信息来估计 EuE_uEu。该问题在时序图数据中同样常见。在此设定下,假设 GtG_tGt 是在时间点 ttt 观测到的图,我们的目标是预测该图在时间点 t+1t+1t+1 的边。
链接预测问题在各领域均有广泛应用:在社交网络中用于推荐好友关系,在电子商务平台中用于推荐商品;在生物信息学中则用于分析蛋白质相互作用。接下来,我们将介绍解决链接预测问题的两类方法——即基于相似性的方法和基于嵌入的方法。

1. 基于相似性的方法

本节介绍若干解决标签预测问题的简单算法,其核心思想是通过计算图中节点对的相似度函数来预测连接概率:若节点相似度高,则它们有较高的概率通过一条边连接。这些算法可分为两类:基于索引的方法和基于社区的方法。前者通过简单计算节点邻居关系指标得出结果,后者则使用关于节点所属社区的信息进行计算。接下来,以 networkx 库(具体模块为 networkx.algorithms.link_prediction )的标准实现为例进行演示。

1.1 基于指标的方法

本节介绍 networkx 中计算未连接节点间边概率的算法,这些算法均通过分析两节点邻居关系来构建简单指标。

资源分配指数 (resource allocation index)
该方法通过以下公式计算所有节点对的资源分配指数,进而估计节点 vvvuuu 之间存在连接的概率::
r(u,v)=∑w∈N(u)∩N(v)1∣N(w)∣r(u,v)=\sum_{w\in N(u)\cap N(v)}\frac 1{|N(w)|} r(u,v)=wN(u)N(v)N(w)1
在以上公式中,函数 N(v)N(v)N(v) 用于计算节点 vvv 的邻居集合,www 代表同时是 uuuvvv 邻居的节点。我们可以使用 networkx 计算该指数:

import networkx as nx
edges = [[1,3],[2,3],[2,4],[4,5],[5,6],[5,7]]
G = nx.from_edgelist(edges)
preds = nx.resource_allocation_index(G,[(1,2),(2,5),(3,4)])

resource_allocation_index 函数的第一个参数是输入图,第二个参数是待计算的潜在边列表。代码运行结果如下所示:

[(1, 2, 0.5), (2, 5, 0.5), (3, 4, 0.5)]

输出结果是一个包含 (1,2)(2,5)(3,4) 等节点对的列表及其对应的资源分配指数值。根据输出可知,这些节点对之间存在连接边的概率均为 0.5

Jaccard 系数
该算法基于 Jaccard 系数计算节点 uuuvvv 之间的连接概率:
J(u,v)=∣N(u)∩N(v)∣∣N(u)∪N(v)∣J(u,v)=\frac {|N(u)\cap N(v)|}{|N(u)\cup N(v)|} J(u,v)=N(u)N(v)N(u)N(v)
其中 N(v)N(v)N(v) 表示节点 vvv 的邻居集合。在 networkx 中可通过以下代码实现:

import networkx as nx
edges = [[1,3],[2,3],[2,4],[4,5],[5,6],[5,7]]
G = nx.from_edgelist(edges)
preds = nx.resource_allocation_index(G,[(1,2),(2,5),(3,4)])

代码运行结果如下所示:

[(1, 2, 0.5), (2, 5, 0.25), (3, 4, 0.3333333333333333)]

根据输出结果,节点 (1,2) 之间存在边的概率为 0.5,节点 (2,5) 之间为 0.25,节点 (3,4) 之间为 0.333
除此之外,networkx 库还提供了许多其他基于相似度得分的节点连接概率计算方法,例如 nx.adamic_adar_indexnx.preferential_attachment,分别基于 Adamic/Adar 指数和偏好连接指数计算。这些函数的参数格式与前述方法一致,均需输入图结构和待计算的节点对列表。

1.2 基于社区的方法

与基于指标的方法类似,本类算法同样通过计算指数来评估未连接节点的连接概率。二者的核心区别在于:基于社区的方法在生成指数前,需先计算节点所属社区信息,同时基于社区的算法逻辑融合了社区拓扑特征。接下来,我们将介绍一些常见的基于社区的方法。

社区公共邻居 (community common neighbor)
为了估算两个节点连接的概率,该算法计算公共邻居的数量,并将属于同一社区的公共邻居数量加到该值中。对于两个节点 uuuvvv,社区公共邻居值的计算方式如下:
c(u,v)=∣N(u)∪N(v)∣+∑w∈N(u)∩N(v)f(w)c(u,v)=|N(u)\cup N(v)|+\sum_{w\in N(u)\cap N(v)}f(w) c(u,v)=N(u)N(v)+wN(u)N(v)f(w)
其中,N(v)N(v)N(v) 表示节点 vvv 的邻居集合,当节点 wwwuuu 属于同一社区时 f(w)=1f(w)=1f(w)=1,否则为 000。在 networkx 中通过以下代码计算:

import networkx as nx
edges = [[1,3],[2,3],[2,4],[4,5],[5,6],[5,7]]
G = nx.from_edgelist(edges)
G.nodes[1]["community"] = 0
G.nodes[2]["community"] = 0
G.nodes[3]["community"] = 0
G.nodes[4]["community"] = 1
G.nodes[5]["community"] = 1
G.nodes[6]["community"] = 1
G.nodes[7]["community"] = 1
preds = nx.cn_soundarajan_hopcroft(G,[(1,2),(2,5),(3,4)])

从上述代码中可以看到,我们需要为图中的每个节点分配社区属性 (community property)。该属性用于在计算前文定义的 f(v)f(v)f(v) 函数时,识别属于同一社区的节点,社区属性值也可以通过特定算法自动计算获得。cn_soundarajan_hopcroft 函数接受输入图和我们希望计算得分的节点对。代码执行结果如下所示:

[(1, 2, 2), (2, 5, 1), (3, 4, 1)]

与前述其它函数的主要区别在于指标值的范围。可以看到,该函数的输出值并不限定在 (0,1) 区间内。

社区资源分配 (community resource allocation)
与社区共同邻居算法类似,社区资源分配算法将从节点邻居处获得的信息与节点所属社区特征合并:
c(u,v)=∑w∈N(u)∩N(v)f(w)∣N(w)∣c(u,v)=\sum_{w\in N(u)\cap N(v)}\frac {f(w)}{|N(w)|} c(u,v)=wN(u)N(v)N(w)f(w)
其中,N(v)N(v)N(v) 表示节点 vvv 的邻居集合,当节点 wwwuuuvvv 属于同一社区时 f(w)=1f(w)=1f(w)=1,否则为 000。在 networkx 中的实现代码如下:

import networkx as nx
edges = [[1,3],[2,3],[2,4],[4,5],[5,6],[5,7]]
G = nx.from_edgelist(edges)
G.nodes[1]["community"] = 0
G.nodes[2]["community"] = 0
G.nodes[3]["community"] = 0
G.nodes[4]["community"] = 1
G.nodes[5]["community"] = 1
G.nodes[6]["community"] = 1
G.nodes[7]["community"] = 1
preds = nx. ra_index_soundarajan_hopcroft(G,[(1,2),(2,5),(3,4)])

从以上代码中可以看到,我们需要为图中的每个节点分配社区属性。该属性在计算前文定义的函数时,用于识别属于同一社区的节点,这些社区值也可以通过特定的算法自动计算获得。ra_index_soundarajan_hopcroft 函数接受输入图和我们希望计算得分的节点对。代码执行结果如下所示:

[(1, 2, 0.5), (2, 5, 0), (3, 4, 0)]

从输出结果可以明显看出社区属性对指数计算的影响:同属一个社区的节点 12 获得了较高的指数值 0.5,相反,分属不同社区的节点对 (2,5)(3,4) 则得分为 0
networkx 还提供了另外两种结合社区信息的连接概率计算方法:nx.within_inter_cluster (基于集群内外连接分析)和 nx.common_neighbor_centrality (基于共同邻居中心性)。
在下一节中,我们将介绍如何结合机器学习和边嵌入 (edge embedding) 来预测未知边。

2. 基于嵌入的方法

在本节中,我们将介绍一种更先进的链路预测方法。该方法的核心理念是将链路预测问题转化为监督式分类任务。具体而言,对于给定图数据,每对节点均通过特征向量 (xxx) 表示,并分配类别标签 (yyy)。形式化定义为:设图 G=(V,E)G=(V,E)G=(V,E),对于任意节点对 i,ji,ji,j,构建如下公式:
x=[f0,0,...,fi,j,...,fn,n]y=[y0,0,...,yi,j,...,yn,n]x=[f_{0,0},...,f_{i,j},...,f_{n,n}]\\ y=[y_{0,0},...,y_{i,j},...,y_{n,n}] x=[f0,0,...,fi,j,...,fn,n]y=[y0,0,...,yi,j,...,yn,n]
其中,fi,j∈xf_{i,j}\in xfi,jx 表示节点对 i,ji,ji,j 的特征向量,yi,j∈yy_{i,j}\in yyi,jy 为其对应标签。yi,jy_{i,j}yi,j 的取值规则为:若图 GGG 中存在连接节点 i,ji,ji,j 的边,则 yi,j=1y_{i,j}=1yi,j=1;否则 yi,j=0y_{i,j}=0yi,j=0。通过特征向量和标签数据,我们可以训练机器学习算法来预测特定节点对是否可能构成图中的合理边。
虽然节点对的标签向量构建相对简单,但特征空间的构建则更具挑战性。为生成每对节点的特征向量,我们将采用嵌入技术(如 node2vecedge2vec)。这些嵌入算法能显著简化特征空间的生成过程。整个流程可概括为两个核心步骤:

  1. 使用 node2vec 算法计算图 GGG 中每个节点的嵌入向量
  2. 对图中所有可能的节点对,使用 edge2vec 算法计算其嵌入表示

随后,我们可以将生成的嵌入特征向量输入通用机器学习算法来解决分类问题。为便于理解,我们通过代码示例演示完整流程(从图构建到链路预测),数据集采用论文引用网络数据集 Cora。

(1) 首先,基于该数据集构建 networkx 图结构:

import networkx as nx
import pandas as pd
from torch_geometric.utils import from_networkxedgelist = pd.read_csv("cora.cites", sep='\t', header=None, names=["target", "source"])
G = nx.from_pandas_edgelist(edgelist)
# 将图转换为PyG格式
pyg_data = from_networkx(G)
draw_graph(G, nx.spring_layout(G))

(2) 接下来,基于图 G 创建训练集和测试集。具体而言,数据集不仅需要包含图 G 中真实边的子集,还需包含不构成真实边的节点对。真实边对应的节点对将作为正样本(类别标签 1),而非真实边的节点对作为负样本(类别标签 0):

from sklearn.model_selection import train_test_split
import numpy as npedges = list(G.edges())
non_edges = list(nx.non_edges(G))train_edges, test_edges = train_test_split(edges, test_size=0.1, random_state=42)
train_non_edges, test_non_edges = train_test_split(non_edges, test_size=0.1)# Rebuild train graph without test edges
graph_train = nx.Graph()
graph_train.add_nodes_from(G.nodes())
graph_train.add_edges_from(train_edges)

(3) 对于每个实例,需要生成它们的特征向量。在本节中,使用 node2vec 库来生成节点嵌入:

from node2vec import Node2Vec
from node2vec.edges import HadamardEmbeddernode2vec = Node2Vec(graph_train)
model = node2vec.fit()
edges_embs = HadamardEmbedder(keyed_vectors=model.wv)# Create training data
samples_train = train_edges + train_non_edges
labels_train = [1]*len(train_edges) + [0]*len(train_non_edges)
train_embeddings = [edges_embs[str(x[0]), str(x[1])] for x in samples_train]# Create testing data
samples_test = test_edges + test_non_edges
labels_test = [1]*len(test_edges) + [0]*len(test_non_edges)
test_embeddings = [edges_embs[str(x[0]), str(x[1])] for x in samples_test]

(4) 使用 train_embeddings 特征空间和 train_labels 标签分配,最终训练机器学习算法来解决标签预测问题:

from sklearn.ensemble import RandomForestClassifier
from sklearn import metrics# Train classifier
rf = RandomForestClassifier(n_estimators=200)
rf.fit(train_embeddings, labels_train)# Predict and evaluate
y_pred = rf.predict(test_embeddings)print('Precision:', metrics.precision_score(labels_test, y_pred))
print('Recall:', metrics.recall_score(labels_test, y_pred))
print('F1-Score:', metrics.f1_score(labels_test, y_pred))

在本节中,使用了一个简单的 RandomForestClassifier 类,我们可以将训练好的模型应用到 test_embeddings 特征空间中,以量化分类的质量:

print('Precision:', metrics.precision_score(labels_test, y_pred))
print('Recall:', metrics.recall_score(labels_test, y_pred))
print('F1-Score:', metrics.f1_score(labels_test, y_pred))

结果输出如下:

Precision::0.8557114228456913
Recall:0.8102466793168881
F1-Score:0.8323586744639375

上述方法只是一个通用的框架,流程中的每个部分——例如训练/测试拆分、节点/边嵌入和机器学习算法——都可以根据具体问题进行修改。该方法在处理时序图的链接预测时尤为有效,此时在时间点 ttt 获取的边信息可用于训练模型,进而预测时间点 t+1t+1t+1 可能出现的边。
本节我们系统阐述了链接预测问题,通过多种示例详细介绍了链接预测的不同解决方案,展示了从基于简单指标的技术到基于嵌入的复杂技术的多元解决路径。

http://www.dtcms.com/a/286558.html

相关文章:

  • Linux和git常用命令
  • TF-IDF(Term Frequency - Inverse Document Frequency)
  • RFID技术赋能智慧物流:实现搬运环节的精准化与高效化
  • 【PTA数据结构 | C语言版】多叉堆的上下调整
  • 【LeetCode 2163. 删除元素后和的最小差值】解析
  • 上市公司-企业超额商誉数据(2005-2023年)-实证数据
  • 《C++继承深度引擎:从内存布局到多态全景拆解》​
  • 飞算科技:以创新科技引领数字化变革,旗下飞算 JavaAI 成开发利器
  • Linux Master 知识库 —— 致 Linux 系统工程师
  • 通信算法之294:LTE系统中的整数倍频偏估计
  • 太阳辐射监测站:洞察太阳能量的科技之眼
  • 【软件系统架构】系列七:系统性能——路由器性能深入解析
  • 告别宕机!Ubuntu自动重启定时任务设置(一键脚本/手动操作)
  • [Raspberry Pi]如何將無頭虛擬顯示器服務(headless display)建置在樹莓派的Ubuntu桌面作業系統中?
  • 汽车免拆诊断案例 | 07款丰田Hilux启动故障
  • Redis——MoreKey
  • 深入理解进程地址空间:虚拟内存与进程独立性
  • nodeJs笔记(六)
  • Ubuntu系统下交叉编译Android的X265库
  • 【leetcode】3202. 找出有效子序列的最大长度(2)
  • 联合利华发起TRO维权行动,OUAI商标或引发跨境圈大批量冻结
  • 密码学基础概念详解:从古典加密到现代密码体系
  • 函数指针和指针函数
  • 【非辐射复合】半导体中非辐射载流子复合的双能级机制
  • 储能BMS通信“卡壳”?CAN转EtherCAT让电池数据“跑起来”
  • animation-timing-function动画的速度曲线
  • 面试150 被围绕的区域
  • 数据结构——单调栈
  • PHP语法高级篇(三):过滤器与JSON
  • 计算机“十万个为什么”之跨域