我有9m节点和120m边的图形数据我在apachespark上运行lpa算法,堆大小为2gb,大约6小时后,由于内存限制,算法停止所以。。。我在相同的数据上运行了相同的算法,但是来自3gb堆大小的neo4j,它会在大约1小时后给出结果我的问题是,在这种情况下,为什么neo4j比spark快得多,内存效率也高?据我所知,spark适用于中型数据问题,neo4j适用于小型中型数据问题
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!