前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Physica A 2020 | 链接预测综述(二)

Physica A 2020 | 链接预测综述(二)

作者头像
Cyril-KI
发布2022-11-10 10:23:16
3870
发布2022-11-10 10:23:16
举报
文章被收录于专栏:KI的算法杂记KI的算法杂记

题目:Link prediction techniques, applications, and performance: A survey

期刊:Physica A

论文地址:https://www.sciencedirect.com/science/article/abs/pii/S0378437120300856

第一部分:Physica A 2020 | 链接预测综述(一):基于相似性的方法

2.2 概率和最大似然模型

对于一个给定的网络

,我们需要优化目标函数,进而得到由多个参数组成的概率模型。此时,我们可以根据条件概率

来评估节点间存在链接的可能性。

概率模型除了需要结构信息外,通常还需要节点和边的属性信息,但提取这些属性信息并不容易。此外,参数调整也是一件重要的事情。极大似然方法复杂且耗时,因此这些模型不适用于实际的大型网络。

2.3 降维技术

关于链接预测,最近有许多人正在研究网络嵌入和矩阵分解技术,这也被认为是降维技术。

2.3.1 网络嵌入

关于网络嵌入的概念,前面已经讲解了很多,这里就不再重复了。

网络嵌入的主要组成部分是编码函数或编码器 ,它将每个节点映射到嵌入空间,如下图所示:

我们有:

这里

是节点

维嵌入表示,于是我们有嵌入矩阵

中每一列都表示一个节点的嵌入表示。

有了嵌入表示后,我们就可以定义相似性函数如下:

是从生成的嵌入中重建成对相似性值的函数。不同的嵌入方法有不同的方式来保持一阶邻近度或者更高阶的邻近度,例如图分解技术使用

来捕捉一阶邻近性。大多数嵌入方法通过优化以下损失函数来实现重建目标:

简单来说,就是要求根据模型生成的嵌入表示得到的相似性度量和定义的相似性度量更加接近。有了嵌入表示后,我们就可以将之用于推断缺失的链接和其他下游机器学习任务。

2.3.2 矩阵分解

在过去的十年中,链接预测和推荐系统的许多论文都使用了矩阵分解。矩阵分解通常提取潜在特征,并使用这些特征来表示每个顶点,然后再用于链接预测。

假设输入数据表示为

,其中每一个

都表示一个向量。那么,矩阵

的因式分解可以表示为:

这里

。简单来说,矩阵的因式分解就是将矩阵变为多个矩阵相乘。

在上式中,

包含表示空间的基,被称为基矩阵。

包含为了重构

所需的基的系数的组合,被称为系数矩阵。

为表示空间的维度,满足

一些常见的矩阵分解是基于对这三个矩阵中任何一个进行约束后得到的。比如:

对矩阵进行分解之后,我们可以通过系数矩阵G中第

行和第

行向量的相似性来计算节点

和节点

之间的相似性,进而判断是否存在链接。

2.4 其他方法

2.4.1 基于学习的框架

链接预测问题也可以建模为基于学习的模型,该问题被转换为一个监督分类模型,其中一个点(即训练数据)对应于网络中的一个顶点对,该点的标签表示这对顶点对之间是否存在边(链接)。换句话说,考虑图

中的顶点对

,其在分类模型中对应的数据点的标签为

因此,链接预测实际上就是一个二分类问题,输入一个节点对的特征信息,然后输出+1或者-1。

监督分类的主要挑战在于模型的输入,即我们要提取节点对的特征。现有的大多数研究工作都是从网络拓扑(即网络的拓扑信息)中提取特征集,这些特征是典型的、邻域的和基于路径的特征。其他一些工作集中于提取节点和链接特征,这些特征对提高链路预测性能起着关键作用。

2.4.2 聚类

一些论文中使用广义聚类系数作为预测参数,在论文中作者介绍了一个循环形成模型,该模型显示了链路发生概率与其形成不同长度循环的能力之间的关系。该模型表明,特定链路的发生概率取决于添加该链路所形成的不同长度循环的数量

广义聚类系数

定义如下:

其中

是循环形成模型的阶数。

2.4.3 SPM

Structural perturbation method (SPM)中使用了一个结构一致性指数来量化链接的可预测性,该指数基于这样一种假设:如果在添加或删除一小部分链接后,结构特征没有发生重大变化,那么网络中的链接是高度可预测的。基于这个指标,研究者提出了一个新的相似性指标,即结构摄动法(SPM)。实验结果表明,与论文中的最新技术相比,该系统具有优异的性能。

3. 实验设置和结果分析

3.1 评价指标

链接预测可以被当做一个二分类问题,因此二分类任务的评价指标基本都适用于链接预测。

二分类任务中的一个重要概念就是混淆矩阵:

TP、FP、FN、TN的定义如下:

注意,以上四个概念都是针对某一个具体的类别来说的。对于类别

来说,true是指预测正确,false是指预测错误,P是预测为

,N是指预测为其他类。举个例子,FP就是预测为

但是预测错误、TN是指预测为其他类且预测正确。

基于混淆矩阵,我们可以得到以下几个指标:

(1)True Positive Rate (TPR)/Recall/Sensitivity

TPR又被称为查全率:

TPR表示所有真实标签为

的样本中预测正确的比例

(2)False Positive Rate (FPR)

FPR:

FP表示真实类别为其他类,但预测为

类,TN表示真实类别为其他类,并且预测正确。因此FPR表示所有真实标签为其他类的样本中预测错误的比例

(3)True Negative Rate (TNR)/Specificity

TNR:

FP表示真实类别为其他类,但预测为

类,TN表示真实类别为其他类,并且预测正确。因此TNR表示所有真实标签为其他类的样本中预测正确的比例。即:

(4)Precision

Precision表示所有预测为 的样本中预测正确的比例。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-03-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 KI的算法杂记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档