本文主要讲述如何使用数据导入工具 Nebula Graph Exchange 将数据从 Neo4j 导入到 Nebula Graph Database。在讲述如何实操数据导入之前,我们先来了解下 Nebula Graph 内部是如何实现这个导入功能的。

Nebula Graph Exchange 的数据处理原理

我们这个导入工具名字是 Nebula Graph Exchange,采用 Spark 作为导入平台,来支持海量数据的导入和保障性能。Spark 本身提供了不错的抽象——DataFrame,使得可以轻松支持多种数据源。在 DataFrame 的支持下,添加新的数据源只需提供配置文件读取的代码和返回 DataFrame 的 Reader 类,即可支持新的数据源。

DataFrame 可以视为一种分布式存表格。DataFrame 可以存储在多个节点的不同分区中,多个分区可以存储在不同的机器上,从而支持并行操作。Spark 还提供了一套简洁的 API 使用户轻松操作 DataFrame 如同操作本地数据集一般。现在大多数数据库提供直接将数据导出成 DataFrame 功能,即使某个数据库并未提供此功能也可以通过数据库 driver 手动构建 DataFrame。

Nebula Graph Exchange 将数据源的数据处理成 DataFrame 之后,会遍历它的每一行,根据配置文件中 fields 的映射关系,按列名获取对应的值。在遍历 batchSize 个行之后,Exchange 会将获取的数据一次性写入到 Nebula Graph 中。目前,Exchange 是通过生成 nGQL 语句再由 Nebula Client 异步写入数据,下一步会支持直接导出 Nebula Graph 底层存储的 sst 文件,以获取更好的性能。接下来介绍一下 Neo4j 数据源导入的具体实现。

Neo4j 数据导入具体实现

虽然 Neo4j 官方提供了可将数据直接导出为 DataFrame 的库,但使用它读取数据难以满足断点续传的需求,我们未直接使用这个库,而是使用 Neo4j 官方的 driver 实现数据读取。Exchange 通过在不同分区调取 Neo4j driver 执行不同 skiplimit 的 Cypher 语句,将数据分布在不同的分区,来获取更好的性能。这个分区数量由配置项 partition 指定。

Exchange 中的 Neo4jReader 类会先将用户配置中的 exec Cypher 语句,return 后边的语句替换成 count(*) 执行获取数据总量,再根据分区数计算每个分区的起始偏移量和大小。这里如果用户配置了 check_point_path 目录,会读取目录中的文件,如果处于续传的状态,Exchange 会计算出每个分区应该的偏移量和大小。然后每个分区在 Cypher 语句后边添加不同的 skiplimit,调用 driver 执行。最后将返回的数据处理成 DataFrame 就完成了 Neo4j 的数据导入。

过程如下图所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ObTp9qwr-1600220662694)(https://www-cdn.nebula-graph.com.cn/nebula-blog/import-neo4j-to-dataframe.png)]

Neo4j 数据导入实践

我们这里导入演示的系统环境如下:

  • cpu name:Intel® Xeon® CPU E5-2697 v3 @ 2.60GHz
  • cpu cores:14
  • memory size:251G

软件环境如下:

  • Neo4j:3.5.20 社区版
  • Nebula graph:docker-compose 部署,默认配置
  • Spark:单机版,版本为 2.4.6 pre-build for hadoop2.7

由于 Nebula Graph 是强 schema 数据库,数据导入前需先进行创建 Space,建 Tag 和 Edge 的 schema,具体的语法可以参考这里。

这里建了名为 test 的 Space,副本数为 1。这里创建了两种 Tag 分别为 tagA 和 tagB,均含有 4 个属性的点类型,此外,还创建一种名为 edgeAB 的边类型,同样含有 4 个属性。具体的 nGQL 语句如下所示:

# 创建图空间
CREATE SPACE test(replica_factor=1);
# 选择图空间 test
USE test;
# 创建标签 tagA
CREATE TAG tagA(idInt int, idString string, tboolean bool, tdouble double);
# 创建标签 tagB
CREATE TAG tagB(idInt int, idString string, tboolean bool, tdouble double);
# 创建边类型 edgeAB
CREATE EDGE edgeAB(idInt int, idString string, tboolean bool, tdouble double);

同时向 Neo4j 导入 Mock 数据——标签为 tagA 和 tagB 的点,数量总共为 100 万,并且导入了连接 tagA 和 tagB 类型点边类型为 edgeAB 的边,共 1000 万个。另外需要注意的是,从 Neo4j 导出的数据在 Nebula Graph 中必须存在属性,且数据对应的类型要同 Nebula Graph 一致。

最后为了提升向 Neo4j 导入 Mock 数据的效率和 Mock 数据在 Neo4j 中的读取效率,这里为 tagA 和 tagB 的 idInt 属性建了索引。关于索引需要注意 Exchange 并不会将 Neo4j 中的索引、约束等信息导入到 Nebula Graph 中,所以需要用户在执行数据写入在 Nebula Graph 之后,自行创建索引和 REBUILD 索引(为已有数据建立索引)。

接下来就可以将 Neo4j 数据导入到 Nebula Graph 中了,首先我们需要下载和编译打包项目,项目在 nebula-java 这个仓库下 tools/exchange 文件夹中。可执行如下命令:

git clone https://github.com/vesoft-inc/nebula-java.git
cd nebula-java/tools/exchange
mvn package -DskipTests

然后就可以看到 target/exchange-1.0.1.jar 这个文件。

接下来编写配置文件,配置文件的格式为:HOCON(Human-Optimized Config Object Notation),可以基于 src/main/resources/server_application.conf 文件的基础上进行更改。首先对 nebula 配置项下的 address、user、pswd 和 space 进行配置,测试环境均为默认配置,所以这里不需要额外的修改。然后进行 tags 配置,需要 tagA 和 tagB 的配置,这里仅展示 tagA 配置,tagB 和 tagA 配置相同。

{# ======neo4j连接设置=======name: tagA# 必须和 Nebula Graph 的中 tag 名字一致,需要在 Nebula Graph 中事先建好 tagserver: "bolt://127.0.0.1:7687"# neo4j 的地址配置user: neo4j# neo4j 的用户名password: neo4j# neo4j 的密码encryption: false# (可选): 传输是否加密,默认值为 falsedatabase: graph.db# (可选): neo4j database 名称,社区版不支持# ======导入设置============type: {source: neo4j# 还支持 PARQUET、ORC、JSON、CSV、HIVE、MYSQL、PULSAR、KAFKA...sink: client# 写入 Nebula Graph 的方式,目前仅支持 client,未来会支持直接导出 Nebula Graph 底层数据库文件}nebula.fields: [idInt, idString, tdouble, tboolean]fields       : [idInt, idString, tdouble, tboolean]# 映射关系 fields,上方为 nebula 的属性名,下方为 neo4j 的属性名,一一对应# 映射关系的配置是 List 而不是 Map,是为了保持 fields 的顺序,未来直接导出 nebula 底层存储文件时需要vertex: idInt# 作为 nebula vid 的 neo4j field,类型需要是整数(long or int)。partition: 10# 分区数batch: 2000# 一次写入 nebula 多少数据check_point_path: "file:///tmp/test"# (可选): 保存导入进度信息的目录,用于断点续传exec: "match (n:tagA) return n.idInt as idInt, n.idString as idString, n.tdouble as tdouble, n.tboolean as tboolean order by n.idInt"
}

边的设置大部分与点的设置无异,但由于边在 Nebula Graph 中有起点的 vid 和终点的 vid 标识,所以这里需要指定作为边起点 vid 的域和作为边终点 vid 的域。

下面给出边的特别配置。

source: {field: a.idInt# policy: "hash"
}
# 起点的 vid 设置
target: {field: b.idInt# policy: "uuid"
}
# 终点的 vid 设置ranking: idInt
# (可选): 作为 rank 的 fieldpartition: 1
# 这里分区数设置为 1,原因在后边exec: "match (a:tagA)-[r:edgeAB]->(b:tagB) return a.idInt, b.idInt, r.idInt as idInt, r.idString as idString, r.tdouble as tdouble, r.tboolean as tboolean order by id(r)"

点的 vertex 和边的 source、target 配置项下都可以设置 policy hash/uuid,它可以将类型为字符串的域作为点的 vid,通过 hash/uuid 函数将字符串映射成整数。

上面的例子由于作为点的 vid 为整数,所以并不需要 policy 的设置。hash/uuid的 区别请看这里。

Cypher 标准中如果没有 order by 约束的话就不能保证每次查询结果的排序一致,虽然看起来即便不加 order by Neo4j 返回的结果顺序也是不变的,但为了防止可能造成的导入时数据丢失,还是强烈建议在 Cypher 语句中加入 order by,虽然这会增加导入的时间。为了提升导入效率, order by 语句最好选取有索引的属性作为排序的属性。如果没有索引,也可观察默认的排序,选择合适的排序属性以提高效率。如果默认的排序找不到规律,可以使用点/关系的 ID 作为排序属性,并且将 partition 的值尽量设小,减少 Neo4j 的排序压力,本文中边 edgeABpartition 就设置为 1。

另外 Nebula Graph 在创建点和边时会将 ID 作为唯一主键,如果主键已存在则会覆盖该主键中的数据。所以假如将某个 Neo4j 属性值作为 Nebula Graph 的 ID,而这个属性值在 Neo4j 中是有重复的,就会导致“重复 ID”对应的数据有且只有一条会存入 Nebula Graph 中,其它的则会被覆盖掉。由于数据导入过程是并发地往 Nebula Graph 中写数据,最终保存的数据并不能保证是 Neo4j 中最新的数据。

这里还要留意下断点续传功能,在断点和续传之间,数据库不应该改变状态,如添加数据或删除数据,且 partition 数量也不能更改,否则可能会有数据丢失。

最后由于 Exchange 需要在不同分区执行不同 skiplimit 的 Cypher 语句,所以用户提供的 Cypher 语句不能含有 skiplimit 语句。

接下来就可以运行 Exchange 程序导数据了,执行如下命令:

$SPARK_HOME/bin/spark-submit  --class com.vesoft.nebula.tools.importer.Exchange --master "local[10]" target/exchange-1.0.1.jar -c /path/to/conf/neo4j_application.conf

在上述这些配置下,导入 100 万个点用时 13s,导入 1000 万条边用时 213s,总用时是 226s。

附:Neo4j 3.5 Community 和 Nebula Graph 1.0.1的一些比较

Neo4j 和 Nebula Graph 在系统架构、数据模型和访问方式上都有一些差异,下表列举了常见的异同

作者有话说:Hi,我是李梦捷,图数据库 Nebula Graph 的研发工程师,如果你对此文有疑问,欢迎来我们的 Nebula Graph 论坛交流下心得~~

喜欢这篇文章?来来来,给我们的 GitHub 点个 star 表鼓励啦~~

从 Neo4j 导入 Nebula Graph 实践见 SPark 数据导入原理相关推荐

  1. spark数据导入导出

    [场景] 1.数据导入:结构化数据,hive中 2.代码提交: (1) spark-shell的方式 (2) spark-submit的方式,代码已经编译好. (3) zeppelin,spark编码 ...

  2. DEV GridControl导入导出Excel文件 - 简单表格数据导入(Microsoft.Office自带)

    1.命名空间 using DevExpress.XtraEditors; using DevExpress.XtraGrid; using DevExpress.XtraGrid.Views.Grid ...

  3. Java实现Excel导入数据库,数据库中的数据导入到Excel

    前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家.点击跳转到教程. 实现的功能: Java实现Excel导入数据库,如果存在就更新 数据库中的数据导入到Excel 1. ...

  4. osm数据导入mysql_OSM(OpenStreetMap) poi、路网 数据导入 PostgreSQL

    摘要: 标签 PostgreSQL , OSM , osm2pgsql , osm2pgrouting , osmosis 背景 从OpenStreetMap下载地图数据,使用osm2pgsql可以将 ...

  5. mysql 导入unl文件_informix数据库及数据导入导出

    informix数据库及数据导入导出 1.原数据库:将nrmdb库sysc_linkset表表结构导入tt.sql文件 dbschema -d nrmdb -t sysc_linkset >tt ...

  6. matlab excel导入矩阵,如何将excel中数据导入到matlab中!Excel导入matlab生成矩阵

    如何将excel中数据导入matlab并存入数组中 使用Matlab中的Excel Link就可以了. 如果使用Excel 2003版本,操作如下: 1 打开Excel. 2 在菜单栏中选择→加载项→ ...

  7. html表格导入wps,怎么快速将网页数据导入WPS表格中?

    在日常学习办公中,我们经常用到WPS这款软件,那么怎么快速将网页数据导入WPS表格中呢?下面小编就给大家详细讲解一下,快来看看吧! 一.新建文本文档,命名为<学生参赛信息.txt>. 1. ...

  8. 导入表格excel的方法+sqlsrver数据导入(.xlsx):未在本地计算机上注册“Microsoft.ACE.OLEDB.12.0”提供程序

    sqlsrver数据导入(.xlsx):未在本地计算机上注册"Microsoft.ACE.OLEDB.12.0"提供程序 解决方法 弹窗提示下面错误 解决方法:下载AccessDa ...

  9. python将excel数据导入ppt_使用python将excel数据导入数据库

    因为需要对数据处理,将excel数据导入到数据库,记录一下过程. 使用到的库:xlrd 和 pymysql (如果需要写到excel可以使用xlwt) 直接丢代码,使用python3,注释比较清楚. ...

最新文章

  1. linux内存分配 连续 足够,linux内存池能分配连续物理内存吗
  2. python精通书籍-清华学霸整理,Python入门到精通这几本书帮你快速入行
  3. hdu5444(2015长春网络赛H题)
  4. 数据包通过分层模型实现通信的过程
  5. JEPaaS笔记||学习培训资料||案例视频 【全套】
  6. matlab cell,fix,floor,round取整的几种方式
  7. 遇到的一个很有趣的陷阱
  8. Powerdesigner设置表字段注释与name相同
  9. Excel-统计函数
  10. PS中rename-item的一些高级应用
  11. 拉普拉斯平滑Laplace Smoothing
  12. 计算机毕业设计java基于SSM超市订单管理系统
  13. foxpro导入 mysql_无法导入、导出或链接到 FoxPro 数据库 | Microsoft Docs
  14. Windows 11 找不到文件C:\ProgramData\Package Cache\{xxxx}xxx.exe。请确定文件名是否正确后,再试一次。
  15. DNS工作原理及其过程
  16. 什么是邓氏编码DUNS NUMBER?
  17. 计算机网络知识点总结(第四章 网络层)
  18. 二十七、74LS148芯片解析
  19. Revit二次开发——扩展存储
  20. 论文多次查重会影响重复率吗?

热门文章

  1. Netdata的百科全书
  2. jeeplus小记录
  3. oracle快速统计表条数_统计oracle每个表数据量
  4. 李宏毅人类语言处理2020:Speech Separation
  5. android之在线音乐播放器
  6. VR 使用什么技术开发
  7. vue cube ui cube-tab-bar
  8. cf-786B区间图最短路
  9. SXD_Decompile_1
  10. 什么样的产品 网站值得我们坚持下去?