我不想要自动翻译,怎么设置(教我如何不想她翻译)
658
2022-05-30
背景介绍
文章目录
背景介绍
零、Abstract
一、Introduction
二、Problem Definition
三、Learning Social Representions
3.1 Random Walks
3.2 Connection:Power laws(连接:幂律)
3.3 Language Modeling
四、Method
4.1 Overview
4.2 Algorithm:deepWalk
(1)SkipGram
(2)Hierarchical Softmax
(3)Optimization
4.3 Parallelizability并行性
4.4 Algorithm Variants
(1)Streaming
(2)Non-random walks
五、Experimential Design
5.1 Datasets
5.2 Baseline Methods
六、Experiments
6.1 Multi-Label Classification
(1)BlogCatalog
(2)Flickr
(3)YouTube
6.2 Parameter Sensitivity
(1)Effect of Dimensionality
(2)Effect of sampling frequency
七、Related Work
7.1 Relational Learning
7.2 Unsupervised Feature Learning
八、Conclusion
九、Reference
零、Abstract
本文提出DeepWalk算法——一种用于学习网络中顶点的潜在表示的新方法,这些潜在表示将社会关系编码到连续的向量空间中,以至于能容易地用到统计模型中。DeepWalk将语言建模和无监督特征学习(或深度学习)的最近进展,从单词序列推广到图中。
DeepWalk将随机游走得到的节点序列作为句子,从截断的随机游走序列中得到网络的局部信息,通过这些局部信息来学习节点的潜在表示。为了证实DeepWalk得到的节点的潜在表示的效果,本文对几个社交网络(如BlogCatalog,Flickr和YouTuBe等)进行了多标签分类任务。我们的结果显示,DeepWalk算法能够对网络进行全局的观察,特别是在缺失信息的情况下,也能比baselines强。当标记数据稀疏(很少)时,DeepWalk的表示得到的F1分数比同类方法高出10%。在一些实验中,当训练数据少于60%时,DeepWalk算法能够胜过所有对比算法。
DeepWalk也是可扩展的,它是一种可以建立有用的增量(incremental)结果的在线学习算法,而且是平行的。这些特性使其适用于广泛的实际应用,如网络分类和异常检测。
一、Introduction
首先介绍了网络嵌入是什么,以社交网络为例,网络嵌入是将网络中的点用一个低维的向量表示(这些向量要能反应原网络的某些特性,比如如果在原网络中两个点的结构相似,则两个点表示成的向量也应该类似)。
过去:普通的邻接矩阵当存储很多关系时,维度将变得很高,而矩阵分解非常费时且复杂,所以通过矩阵分解的方法进行网络的表示学习,目前没有应用在大规模数据集的方案中。
在NLP任务中,word2vec是一种常用的word embedding方法,它通过语料库的句子序列来描述词与词之间的共现关系,进而学习词语的向量表示。
本文是第一次引入深度学习的无监督特征学习,通过将NLP模型word2vec应用到网络的表示上,做到了无需进行矩阵分解即可表示出网络中的节点的关系。文中提出了一种网络嵌入的方法DeepWalk——
它的输入是一张图或网络,输出是网络中顶点的潜在向量表示
(将社交关系编码成维度较小的连续向量空间)。下图是将DeepWalk用于学习好的Karate网络的效果,我们
DeepWalk通过一串截断随机游走(truncated random walk)类似word2vec中对单词的上下文,作为word2vec算法的输入,进而把节点表示成向量,从而学习出一个网络的社交表示(social representation),在网络标注顶点很少的情况也能得到较好效果。输出的结果能被作为多种分类算法作为输入应用。该算法具有可扩展性的有点,能够适应网络的变化。
DeepWalk思想类似word2vec,使用图中节点之间的共现关系来学习节点的向量表示。那么问题关键就是如何描述节点之间的共现关系——DeepWalk的方法是使用随机游走(Random Walk)的方式在图中进行节点采样。
Random Walk是一种可重复访问已访问节点的DFS算法。给定当前访问起始节点,从其邻居中随机采样节点作为下一个访问节点,重复该过程,直到访问序列长度满足预设要求。
本文的三点主要贡献有:
使用深度学习去分析图,建立了一个适合统计建模的健壮表征方法。DeepWalk根据短距离的随机游走学习结构化表示。
在社会网络的多标签分类任务上评估我们的表征方法,显示:在标签的出现次数稀疏情况下,算法在指标Micro F1值上提高了5%-10%;在一些栗子上,即使提取40%的训练数据,DeepWalk算法的representations仍然能获得很好的效果。
二、Problem Definition
将社交网络的成员分类问题考虑为一个或多个类别。
给定部分标记的社交网络 G L = ( V , E , X , Y ) G_L=(V,E,X,Y) GL =(V,E,X,Y) 的形式表示,其中属性 X ∈ R ∣ V ∣ × S X \in \mathbb{R}^{|V| \times S} X∈R∣V∣×S ( S S S是每个属性向量的特征空间的大小)。
Y ∈ R ∣ V ∣ × ∣ Y ∣ Y \in \mathbb{R}^{|V| \times |Y|} Y∈R∣V∣×∣Y∣ 。 Y Y Y是标签集,是一个节点个数x标签个数的矩阵,代表每个节点都有一个自己的标签。
任务是将社交网络中的结点进行分类,但该分类问题和普通分类不同。在传统的机器学习分类设置中,目标是学习一个假设 H H H,它将 X X X的元素映射到标签集 Y Y Y。
但对于一个图,需要利用到节点在图中嵌入的信息,即节点邻居等。这部分信息常常是隐藏的,不体现在 X X X当中,需要结合网络结构来进行分类[37],单个节点的分类不是独立的任务,而是与其它节点的分类相关。这被称作集体分类(Collective Classification)或关联分类(Relational Classification)。
DeepWalk从关联分类任务中提取除了上游子任务——学习所有结点的嵌入表示 X E ∈ R ∣ V ∣ × d X_E \in \mathbb{R}^{|V| \times d} XE ∈R∣V∣×d,其中 d d d是一个较小的维度数, X E X_E XE 可用于捕捉节点的结构信息。
三、Learning Social Representions
学习一个网络表示时需要注意的几个性质:
适应性。网络表示需要适应网络的变化(不断会有新节点和边添加进来)。
社群性。网络中往往会出现一些特征相似的点构成的团状结构,这些节点表示成向量后必须相似。
低维性。低维度的表示可以在少量标注数据上获得更好的泛化性能,过高会有过拟合的风险,对网络中有缺失数据的情况处理能力较差。
连续性。低维的向量应该是连续的。连续的表示在区分社区边界上更加平滑,使得分类结果更加鲁棒。
网络嵌入和NLP的word2vec即词嵌入类似,前者是将网络节点用向量表示,后者是将单词用向量表示。
3.1 Random Walks
随机游走(random walk),在网络上不断重复随机选择游走路径,最终形成一条贯穿网络的路径。从某个特定的端点开始,每次从当前节点相连的边中随机选择一条,沿着选定的边移动到下一个顶点,不断重复该过程。阶段随机游走(truncated random walk)实际是长度固定的随机游走。
随机游走的两个好处:
并行性:随机游走是局部行为,在大网络中,可以同时在不同的点开始截断随机游走,从而减少采样的时间。
适应性:适应网络的局部变化,因为网络的演化(如局部的点和边的变化)对只会部分的随机游走路径产生影响,因此在网络的演化过程中不需要每一次都重新计算整个网络的随机游走。
3.2 Connection:Power laws(连接:幂律)
自然语言已被证明是符合幂次定律,只要证明图的数据的也符合幂次定律就可以对图的表示应用对自然语言表示的方法。下图比较了对图进行短随机游走中向量出现的频率与单词在文本信息中出现的频率。可见对图的短随机游走也是大致满足幂次定律的:
3.3 Language Modeling
语言模型主要是学词序列:
W 1 n = ( w 0 , w 1 , ⋯ , w n ) W_{1}^{n}=\left(w_{0}, w_{1},\cdots, w_{n}\right) W1n =(w0 ,w1 ,⋯,wn )我们需要用前n个单词预测第n个单词,即将 Pr ( w n ∣ w 0 , w 1 , ⋯ , w n − 1 ) \operatorname{Pr}\left(w_{n} \mid w_{0},w{1},\cdots,w_{n-1}\right) Pr(wn ∣w0 ,w1,⋯,wn−1 )但是论文的目的是要学习一个隐表示,因此引入一个映射函数: Φ : v ∈ V ↦ R ∣ V ∣ × d \Phi: v \in V \mapsto \mathbb{R}^{|V| \times d} Φ:v∈V↦R∣V∣×d,所以问题就变成了估计 Pr ( v n ∣ Φ ( v 0 ) , Φ ( v 1 ) , ⋯ , Φ ( v n − 1 ) ) \operatorname{Pr}\left(v_{n} \mid \Phi\left(v_{0}\right), \Phi\left(v_{1}\right), \cdots, \Phi\left(v_{n-1}\right)\right) Pr(vn ∣Φ(v0 ),Φ(v1 ),⋯,Φ(vn−1 ))但是如果随机游走的长度变大,会降低该条件概率估计的效率,NLP中针对这个问题给出以下几个方案:
(1)将上下文预测一个单词的问题,转为根据一个单词预测上下文的问题;
(2)在一个给定单词的左边和右边都会出现上下文内容
(3)去掉单词出现的顺序约束
于是问题变成了如下最优化问题。因为顺序被忽略了,所以比较适合图学习。
minimize Φ − log Pr ( { v i − w , ⋯ , v i − 1 , v i + 1 , ⋯ , v i + w } ∣ Φ ( v i ) ) \underset{\Phi}{\operatorname{minimize}}-\log \operatorname{Pr}\left(\left\{v_{i-w}, \cdots, v_{i-1}, v_{i+1}, \cdots, v_{i+w}\right\} \mid \Phi\left(v_{i}\right)\right) Φminimize −logPr({vi−w ,⋯,vi−1 ,vi+1 ,⋯,vi+w }∣Φ(vi ))
四、Method
4.1 Overview
4.2 Algorithm:DeepWalk
算法由两部分组成:(1)随机游走序列生成器;(2)向量更新。
随机游走:对图G均匀地随机采样一个节点 v i v_i vi ,并作为random walk的根结点 W v i W_{v_{i}} Wvi ,然后一直向周围邻居采样,直到达到最大路径长度 t t t。
随机游走的长度没有限制,但是在实验中设置最大步长是固定的。
输出:一个顶点表示矩阵 Φ \Phi Φ,大小为 ∣ V ∣ × d |V|\times d ∣V∣×d
第二行:构建Hierarchical Softmax
第三行:对每个节点做 γ \gamma γ次随机游走
第四行:打乱网络中的节点
第五行:以每个节点为根结点生成长度为 t t t的随机游走
第七行:根据生成的随机游走使用skip-gram模型利用梯度的方法对参数进行更新。
其中SkipGram参数更新的细节如下:
(1)SkipGram
SkipGram参数更新的细节如下:
SkipGram算法是语言模型中,最大化窗口 w w w中出现的词的概率的方法(梯度下降),外层for循环是对这个序列中的每个词进行操作,内层for循环是对每个词的窗口大小为 w w w的词序列进行操作。具体操作是用一个似然函数 J ( Φ ) J(\Phi) J(Φ)表示 Φ \Phi Φ,通过梯度下降(对 J ( Φ ) J(\Phi) J(Φ)求导)更新参数( α \alpha α是学习速率)。
从词向量学习的角度看,基于神经网络语言模型的预训练方法存在缺点:当对t时刻词进行预测时,模型只利用了历史词序列作为输入,而损失了与“未来”上下文之间的共现信息。于是大佬们提出更强的词向量预训练模型Word2Vec,其中包括CBOW(Continuous Bag-of-Words)模型以及Skip-gram模型。
(2)Hierarchical Softmax
更进一步,还可以结合节点出现频率,使用
霍夫曼编码
,为更频繁出现的节点分配稍短的路径,再次降低计算复杂度。
(3)Optimization
模型参数集是 { Φ , T } \{\Phi, T\} {Φ,T},使用随机梯度下降算法 S G D SGD SGD(一次训练一个样本)进行优化参数。通过方向传播计算损失函数关于参数的偏导数,SGD的学习率初始设置为2.5%,然后随着训练过程中看到的顶点数量的增加而线性减少。
4.3 Parallelizability并行性
上面的Figure 2 显示了社交网络中的随机游走的顶点和语言模型中的词的频率分布都符合幂律分布。这导致产生罕见的顶点的长尾效应,因此更新 Φ \Phi Φ将是稀疏的,并且没有获得一个锁来访问模型共享参数,ASGD将获得一个最优的收敛速度[36]。当使用多线程在一台机器上运行实验时,可得该技术具有很高扩展性(可用于大规模的机器学习[8])。
Figure 4 显示了并行化DeepWalk的效果,当将worker的数量增加至8个,处理BlogCatalog和Flickr网络的速度是一致的(图4a)。它还表明,与连续运行DeepWalk相比,预测性能没有损失(图4b)。
4.4 Algorithm Variants
(1)Streaming
本文方法的一个有趣的变体是流方法,它可以在不了解整个图的情况下实现。在这种变体中,图中的small walks直接传递给表示学习代码,并直接更新模型。
对学习过程也需要做一定的修改:
(1)使用衰减的学习率将不再可能,相反可以初始化学习速率 α \alpha α为小常数值。这将花费更多的时间来学习,但是在某些应用程序中可能是值得的。
(2)不能再构建参数树了。如果 V V V的基数已知(或可以有界),就可以为该最大值构建层次结构的Softmax树(Hierarchical Softmax)。当顶点第一次被看到时,可以将它们分配给剩余的叶子之一。如果有能力估计顶点频率,还可以使用霍夫曼编码来减少频繁元素的访问时间。
(2)Non-random walks
某些图是由agent与一些列元素(如用户在网站上的页面导航)交互的副产品而创建的。当这样的非随机游走创建图时,我们可以使用此过程直接为建模阶段提供数据。以这种方式采样的图形不仅能捕获与网络结构有关的信息,而且还将捕获与遍历路径的频率有关的信息。
五、Experimential Design
5.1 Datasets
数据集分别为
Flickr [39]:一个图片分享网站,用户之间进行联系的网络。labels代表了用户的兴趣分组,例如“lack and white
photos”
YouTube [40]:视频分享网站,用户之间构成一个网络。labels代表了喜欢相同视频的用户的分组。
5.2 Baseline Methods
和下面的baseline进行对比:
SpectralClustering
Modularity
EdgeCluster
wvRN
Majority
六、Experiments
本节对许多多标签分类任务进行彻底评估,并分析其在多个参数中的敏感度。
6.1 Multi-Label Classification
为了便于我们的方法与相关基准方法之间的比较,我们使用与[39,40]中完全相同的数据集和实验程序。 具体来说,我们随机采样标记节点的一部分(TR),并将其用作训练数据。 其余节点用作测试。 我们重复此过程10次,并报告Macro-F1和Micro-F1的平均性能。 如果可能,我们直接在此处报告原始结果[39,40]。
对于所有模型,我们使用由LibLinear 扩展实现的一对一逻辑对数回归,以返回最可能的标签,如[39]所示。 我们提供(γ= 80,w = 10,d = 128)的Deep-Walk结果。 (SpectralClustering,Modularity,EdgeCluster)的结果使用了Tang和Liu的首选维数d = 500。
(1)BlogCatalog
(2)Flickr
在此实验中,我们将Flickr网络上的训练率(TR)从1%更改为10%。 这相当于在整个网络中大约有800至8,000个节点被标记为分类。 表3给出了我们的结果,与先前的实验一致。 相对于Micro-F1,DeepWalk优于所有基准方法至少3%。 此外,当仅标记了图表的3%时,其他方法已经有了10%的数据,Micro-F1性能也优于其他所有方法。 换句话说,DeepWalk的训练数据不到60%,表现就优于基准方法。 它在Macro-F1中的性能也相当好,最初的性能接近SpectralClustering,但差距仅达到1%。
(3)YouTube
YouTube网络比我们之前尝试过的网络要大得多,并且它的规模使我们无法运行两种基准方法(Spectral Clustering和Modularity)。 它比我们之前考虑的更接近真实世界的图。
表4中列出了将训练比率(TR)从1%更改为10%的结果。它们表明,DeepWalk在创建图形表示形式EdgeCluster方面明显优于基准方法。 当使用1%的标记节点进行测试时,Micro-F1可以提高14%。Macro-F1显示相应的10%的增加。 随着训练数据的增加,这种领先优势逐渐缩小,但是DeepWalk在Micro-F1中领先3%,而在Macro-F1中令人印象深刻的5%改善。
此实验展示了使用社交表示学习进行多标签分类可能带来的性能优势。 DeepWalk可以缩放到大图,并且在这种稀疏标记的环境中表现出色。
6.2 Parameter Sensitivity
为了评估DeepWalk的参数化更改如何影响其对分类任务的性能,我们对两个多标签分类任务(Flickr和BlogCatalog)进行了实验。 为了简洁起见,我们已固定窗口大小和步行长度以强调局部结构(w = 10,t = 40)。 然后,我们更改潜在维数(d),每个顶点开始的遍历数(γ)以及可用的训练数据量(TR),以确定它们对网络分类性能的影响。
(1)Effect of Dimensionality
参数说明:
文中使用固定的window size和walk length: w = 10 , t = 40 w = 10,t = 40 w=10,t=40
d : 维 度 d:维度 d:维度
γ \gamma γ:每个顶点开始的walk数量
T R T_R TR :学习率
实验说明:
图5a1和5a3测试了改变维度和学习率的效果。Flickr和BlogCatalog的性能相当一致,表明模型的最佳维数取决于训练实例的数量。
图5a2和5a3研究了改变每个顶点的维数和游走次数的影响。维度之间的相对性能在不同的 γ \gamma γ值下是相对稳定的。
(2)Effect of sampling frequency
图5显示了增加 γ \gamma γ的影响,从每个节点开始的random walks数:最初增加 γ \gamma γ有很大影响,但很快减慢影响( γ > 10 \gamma > 10 γ>10)。这些只有在少量的random walks才能学习有意义的顶点的潜在表示。
七、Related Work
7.1 Relational Learning
关系分类(或集体分类)方法[15、25、32]使用数据项之间的链接作为分类过程的一部分。 集体分类问题中的精确推论是NP-Hard的,解决方案集中在近似推论算法的使用上,这可能无法保证收敛。
与我们工作最相关的关系分类算法通过学习集群[33],在附近节点之间添加边缘[14],使用PageRank [24]或通过扩展关系分类以将其他特征考虑在内来整合社区信息[43] 。 我们的工作采用了截然不同的方法。 代替新的近似推理算法,我们提出了一种学习网络结构表示的过程,然后可以将其用于现有的推理过程(包括迭代过程)。
我们还提出了许多用于从图形生成特征的技术[13、17、39-41]。 与这些方法相比,我们将特征创建过程构架为表示学习问题。
已经提出了Graph Kernels [42]作为使用关系数据作为分类过程的一部分的方法,但是除非近似[20],否则它会非常缓慢。 我们的方法是互补的; 我们将学习将其直接用作任何分类方法的特征,而不是将结构编码为内核函数的一部分。
7.2 Unsupervised Feature Learning
已经提出了分布式表示来建模概念之间的结构关系[18]。 这些表示通过反向传播和梯度下降进行训练。 计算成本和数值不稳定导致这些技术被放弃了将近十年。 最近,分布式计算允许训练更大的模型[4],并且出现了无监督学习算法的数据增长[10]。 分布式表示通常通过神经网络进行训练,这些网络在诸如计算机视觉[22],语音识别[8]和自然语言处理[1,7]的各个领域都取得了进步。
八、Conclusion
DeepWalk是学习潜在社交结点表征的新方法,算是network embedding的开山之作——借鉴NLP中词向量的思想来做网络节点表示,后面有几篇论文也是利用随机游走构建概率模型,用词向量中的Negative Sampling(负采样)解决相应问题。
DeepWalk从一个简单的角度切入,用现有的NLP中的skip-gram模型结合,在一个全新的且尚未成为主流的问题中得到一个行之有效的解。DeepWalk利用截断随机游走的局部信息作为输入,学习了一种能编码网络结构信息的表示方法。然后用该方法挑战多标签分类任务中表现有效。
作为一种在线学习算法,DeepWalk也是可扩展的,它能够为因太大而无法运行谱方法的图创建有效的表示。DeepWalk明显优于其他设计用于稀疏操作的方法;文中还展示该方法是可并行的,运行works同时更新模型的不同部分。
九、Reference
(1)https://dl.acm.org/doi/10.1145/2623330.2623732
(2)https://blog.csdn.net/yyl424525/article/details/100575405
(3)https://blog.csdn.net/StarfishCu/article/details/108049055
(4)https://www.cnblogs.com/lavi/p/4323691.html
(5)DeepWalk论文精读:(2)核心算法
(6)https://zhuanlan.zhihu.com/p/104731569
(7)图神经网络—基于随机游走的早期研究(一):DeepWalk & Node2Vec
机器翻译 深度学习
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。