2 gdp12315 gdp12315 于 2016.02.16 23:01 提问

GraphX 怎么进行宽度遍历 10C

通过GraphLoader.edgeListFile生成到graph,怎么对图中所有节点进行遍历,保证每次遍历到顺序一样,
有没有办法?

问题背景:
子图同构匹配查询,查询图q ,数据图G,从G中找出所有于q同构到到子图。

1个回答

devmiao
devmiao   Ds   Rxr 2016.02.16 23:20
gdp12315
gdp12315 谢谢你,不过这个不是我想要的
2 年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
graphx上的一些简单应用
原文网址:http://kubicode.me/2015/07/07/Spark/Graphs-Applications/#二跳邻居 看实验用的图: 该图可以使用如下代码来进行标示 123456789101112 val sc=new SparkContext();val edge=List(//边的信息 (1,2),(1,3),(2,
Spark GraphX的边构造过程详解——从 RDD[Edge[ED]] 到 EdgeRDD[ED, VD]
本文介绍Spark GraphX内部对边存储的机理,详解边分区内部的索引构建过程。 在最初,边是这样的 RDD[(srcId, dstId, attr)],它是(srcId, dstId, attr)这个三元组的集合。这种结构并不能提供有效的图计算,如快速找出(srcId, dstId)的属性值attr,找出以srcId为源顶点的所有边等操作若按遍历方式处理,效率将非常低。
Spark的GraphX中关于两图合并的算法
目前,spark的Graphx库中没有实现两个图的合并算法。 图合并:意味着名称相同的定点要进行合并,所有其他的唯一的定点和边也要和进来。 为了深度数据分析的需要,如果将不同的数据源构建的两个图,合并成一个大图,图合并(Mergeing)是非常有用的。 实现代码如下: import org.apache.spark.graphx._ def mergeGraphs(g1:Graph[S
graphx之图迭代
迭代迭代思想是spark的精髓之一,所谓迭代,即每一步的输出结果作为下一步的输入,因而相邻迭代具有很强的关系。 graphx更是将这种迭代思想运用的灵活高效。联通分量通过graphx lib中的ConnectedComponents连通分量算法,简单介绍迭代和消息传播机制。示例见下图:在完成顶点的初始化后,连通分支开始迭代过程: 为区分顶点自身id与连通分支id,后者称作cid。 1. 发送消
GraphX的基本介绍
1、GraphX的需要懂的三个问题: (1)提供给用户的API,各家提供的差不多 (2)图在分布式系统中如何存储?每个机器存哪个边?哪个点? (3)分布式图是如何通信的呢?(边点确定时) 2、GraphX图引擎 基于Spark,其存的点和边叫分别较做EdgeRDD和VertexRDD,相比于RDD,附加了元信息。 分布式的存储方式会影响后期的执行效率;边和点的存
Spark GraphX(一)
1.基础 Spark中属性图是由VertexRDD和EdgeRDD两个参数构成的。其中,每个vertex由一个唯一的64位长的标识符(VertexId)作为key。同时,属性图也和RDD一样,是不可变的、分布式的、可容错的。属性图Graph的定义如下: abstract class Graph[VD, ED]{ val vertices: VertexRDD[VD] val edges:
Spark入门实战系列--9.Spark GraphX介绍及实例
Spark GraphX是一个分布式图处理框架,它是基于Spark平台提供对图计算和图挖掘简洁易用的而丰富的接口,极大的方便了对分布式图处理的需求。 众所周知•,社交网络中人与人之间有很多关系链,例如Twitter、Facebook、微博和微信等,这些都是大数据产生的地方都需要图计算,现在的图处理基本都是分布式的图处理,而并非单机处理。Spark GraphX由于底层是基于Spark来处理的,所以天然就是一个分布式的
算法学习:图的宽度优先遍历(BFS)
图的宽度优先遍历早就学过宽度优先遍历,也自以为会了,今天一写程序才知道自己之前的理解有很多不对的地方,这里就不详细说了。宽度优先算法思想:从一个点开始,检查与这个点相连的点,如果没有被访问过,则放到待访问队列中,否则跳过。直到待访问队列为空。C++中队列的使用: 头文件包含<queue> 几个本文用到的操作:push(i):将i放到队列中,入队 pop(i):将点i从队列中删除 q.front(
spark的Graphx中subGraph算法的改进
众所周知,在spark Graphx的求子图方法subgraph中,返回的子图有可能会包含孤立点,即该点无任何边: 算法源码如下所示: override def subgraph( epred: EdgeTriplet[VD, ED] => Boolean = x => true, vpred: (VertexId, VD) => Boolean = (a, b) => t
graphx中Pregel函数详解
1、PregelAPI 图本质上是一种递归的数据结构,其顶点的属性值依赖于其邻接顶点,而其邻接顶点属性又依赖于其邻接顶点,许多重要的图算法通过迭代计算每个顶点的属性直到到达定点条件,这些迭代的图算法被抽象成一系列图并行操作。   2、Pregel的计算模型 主要分为三个函数: 1、vertexProgram函数 2、sendMessage函数 3、messag