Skip to content

Commit

Permalink
Modify doc (#889)
Browse files Browse the repository at this point in the history
* add console commands

* update
  • Loading branch information
cooper-lzy authored Aug 20, 2021
1 parent a8aad9d commit 45b870e
Show file tree
Hide file tree
Showing 10 changed files with 24 additions and 21 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -209,7 +209,9 @@

### 服务架构建议

!!! danger "**不要**跨机房部署集群"
!!! danger

**不要**跨机房部署集群。

| 进程 | 数量|
| ------------------------| ------|
Expand Down Expand Up @@ -263,7 +265,7 @@ Nebula Graph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都

- 不要使用远端存储设备(如 NAS 或 SAN),不要外接基于 HDFS 或者 Ceph 的虚拟硬盘。

- 不需要使用磁盘阵列(RAID)
- 不需要使用磁盘阵列(RAID)

- 使用本地 SSD 设备。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -170,7 +170,7 @@ $ cmake -DCMAKE_C_COMPILER=<path_to_clang/bin/clang> -DCMAKE_CXX_COMPILER=<path_

1. 检查操作系统版本是否符合要求、内存和硬盘空间是否足够。

2. 检查[third-party](../1.resource-preparations.md)是否正确安装。
2. 检查[third-party](../1.resource-preparations.md#_5)是否正确安装。

3. 使用`make -j1`降低编译并发度。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -17,7 +17,7 @@ Nebula Graph v2.0.x升级至v{{nebula.release}},只需要使用v{{nebula.relea
- RPM包

```bash
$ sudo rpm -Uivh <package_name>
$ sudo rpm -Uvh <package_name>
```

- DEB包
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -273,7 +273,7 @@ Nebula Graph历史版本指低于Nebula Graph v2.0.0-GA的版本,本文介绍
11. 升级其他客户端。
所有的客户端都必须升级到支持Nebula Graph v{{nebula.release}} 的版本。包括但不限于[Studio](https://github.com/vesoft-inc/nebula-docker-compose), [Python](https://github.com/vesoft-inc/nebula-python), [Java](https://github.com/vesoft-inc/nebula-java), [go](https://github.com/vesoft-inc/nebula-go), [C++](https://github.com/vesoft-inc/nebula-cpp), [Flink-connector](https://github.com/vesoft-inc/nebula-flink-connector), [Spark-util](https://github.com/vesoft-inc/nebula-spark-utils), [Benchmark](https://github.com/vesoft-inc/nebula-bench)。请找到各 repo 对应的 branch。
所有的客户端都必须升级到支持Nebula Graph v{{nebula.release}} 的版本。包括但不限于[Python](https://github.com/vesoft-inc/nebula-python)[Java](https://github.com/vesoft-inc/nebula-java)[go](https://github.com/vesoft-inc/nebula-go)[C++](https://github.com/vesoft-inc/nebula-cpp)[Flink-connector](https://github.com/vesoft-inc/nebula-flink-connector)[Spark-util](https://github.com/vesoft-inc/nebula-spark-utils)、[Nebula Bench](https://github.com/vesoft-inc/nebula-bench)。请找到各 repo 对应的 branch。
!!! Note
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -6,7 +6,7 @@

!!! Note

默认情况下,身份验证功能是关闭的,输入任意用户名和密码都可以连接到Nebula Graph。
默认情况下,身份验证功能是关闭的,用户可以使用root用户名和任意密码连接到Nebula Graph。

Nebula Graph支持两种身份验证方式:本地身份验证和LDAP验证。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -6,7 +6,7 @@

!!! Note

* 默认情况下,身份验证功能是关闭的,输入任意用户名和密码都可以连接到Nebula Graph。
* 默认情况下,身份验证功能是关闭的,用户可以使用root用户名和任意密码连接到Nebula Graph。
* 修改权限后,对应的用户需要重新登录才能生效。


Expand Down
8 changes: 4 additions & 4 deletions docs-2.0/nebula-algorithm.md
Original file line number Diff line number Diff line change
Expand Up @@ -54,7 +54,7 @@ Nebula Algorithm实现图计算的流程如下:
1. 克隆仓库`nebula-spark-utils`

```bash
$ git clone -b {{algorithm.release}} https://github.com/vesoft-inc/nebula-spark-utils.git
$ git clone -b {{algorithm.branch}} https://github.com/vesoft-inc/nebula-spark-utils.git
```

2. 进入目录`nebula-algorithm`
Expand All @@ -73,7 +73,7 @@ Nebula Algorithm实现图计算的流程如下:

### Maven远程仓库下载

[下载地址](https://repo1.maven.org/maven2/com/vesoft/nebula-algorithm/2.0.0/)
[下载地址](https://repo1.maven.org/maven2/com/vesoft/nebula-algorithm/{{algorithm.release}}/)

## 使用方法

Expand All @@ -87,7 +87,7 @@ Nebula Algorithm实现图计算的流程如下:
<dependency>
<groupId>com.vesoft</groupId>
<artifactId>nebula-algorithm</artifactId>
<version>2.0.0</version>
<version>{{algorithm.release}}</version>
</dependency>
```

Expand All @@ -106,7 +106,7 @@ Nebula Algorithm实现图计算的流程如下:
!!! note
使用封装好的算法包有一定的局限性,例如落库到Nebula Graph时,落库的图空间中创建的Tag的属性名称必须和代码内预设的名称保持一致。如果用户有开发能力,推荐使用第一种方法。

1. 设置[配置文件](https://github.com/vesoft-inc/nebula-spark-utils/blob/master/nebula-algorithm/src/main/resources/application.conf)
1. 设置[配置文件](https://github.com/vesoft-inc/nebula-spark-utils/blob/{{algorithm.branch}}/nebula-algorithm/src/main/resources/application.conf)

```bash
{
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -8,6 +8,7 @@ Nebula Exchange版本(即JAR包版本)和Nebula Graph的版本对应关系

|Exchange client版本|Nebula Graph版本|
|:---|:---|
|{{exchange.release}}|{{nebula.release}}|
|2.1.0|2.0.0、2.0.1|
|2.0-SNAPSHOT|v2-nightly|
|2.0.1|2.0.0、2.0.1|
Expand Down
10 changes: 5 additions & 5 deletions docs-2.0/nebula-exchange/parameter-reference/ex-ug-parameter.md
Original file line number Diff line number Diff line change
Expand Up @@ -49,9 +49,9 @@
|`nebula.user`|string|-||拥有Nebula Graph写权限的用户名。|
|`nebula.pswd`|string|-||用户名对应的密码。|
|`nebula.space`|string|-||需要导入数据的的图空间名称。|
|`nebula.path.local`|string|`"/tmp"`||(TODO:coding导入SST文件时需要设置本地SST文件路径。|
|`nebula.path.remote`|string|`"/sst"`||(TODO:coding导入SST文件时需要设置远端SST文件路径。|
|`nebula.path.hdfs.namenode`|string|`"hdfs://name_node:9000"`||(TODO:coding导入SST文件时需要设置HDFS的namenode。|
|`nebula.path.local`|string|`"/tmp"`||导入SST文件时需要设置本地SST文件路径。|
|`nebula.path.remote`|string|`"/sst"`||导入SST文件时需要设置远端SST文件路径。|
|`nebula.path.hdfs.namenode`|string|`"hdfs://name_node:9000"`||导入SST文件时需要设置HDFS的namenode。|
|`nebula.connection.timeout`|int|`3000`||Thrift连接的超时时间,单位为 ms。|
|`nebula.connection.retry`|int|`3`||Thrift连接重试次数。|
|`nebula.execution.retry`|int|`3`||nGQL语句执行重试次数。|
Expand All @@ -70,7 +70,7 @@
|:---|:---|:---|:---|:---|
|`tags.name`|string|-||Nebula Graph中定义的Tag名称。|
|`tags.type.source`|string|-||指定数据源。例如`csv`|
|`tags.type.sink`|string|`client`||指定导入方式,可选值为`client``SST`(不支持)|
|`tags.type.sink`|string|`client`||指定导入方式,可选值为`client``SST`|
|`tags.fields`|list\[string\]|-||属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果CSV文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。|
|`tags.nebula.fields`|list\[string\]|-||Nebula Graph中定义的属性名称,顺序必须和`tags.fields`一一对应。例如`[_c1, _c2]`对应`[name, age]`,表示第二列为属性name的值,第三列为属性age的值。|
|`tags.vertex.field`|string|-||点ID的列。例如CSV文件没有表头时,可以用`_c0`表示第一列的值作为点ID。|
Expand Down Expand Up @@ -158,7 +158,7 @@
|:---|:---|:---|:---|:---|
|`edges.name`| string|-||Nebula Graph中定义的Edge type名称。|
|`edges.type.source`|string|-||指定数据源。例如`csv`|
|`edges.type.sink`|string|`client`||指定导入方式,可选值为`client``SST`(不支持)|
|`edges.type.sink`|string|`client`||指定导入方式,可选值为`client``SST`|
|`edges.fields`|list\[string\]|-||属性对应的列的表头或列名。如果有表头或列名,请直接使用该名称。如果CSV文件没有表头,用`[_c0, _c1, _c2]`的形式表示第一列、第二列、第三列,以此类推。|
|`edges.nebula.fields`|list\[string\]|-||Nebula Graph中定义的属性名称,顺序必须和`edges.fields`一一对应。例如`[_c2, _c3]`对应`[start_year, end_year]`,表示第三列为开始年份的值,第四列为结束年份的值。|
|`edges.source.field`|string|-||边的起始点的列。例如`_c0`表示第一列的值作为边的起始点。|
Expand Down
10 changes: 5 additions & 5 deletions docs-2.0/nebula-spark-connector.md
Original file line number Diff line number Diff line change
Expand Up @@ -36,7 +36,7 @@ Nebula Spark Connector {{sparkconnector.release}}版本特性如下:

- Reader支持将Nebula Graph数据读取成Graphx的VertexRDD和EdgeRDD,支持非Long型点ID。

- Nebula Spark Connector 2.0统一了SparkSQL的扩展数据源,统一采用DataSourceV2进行Nebula Graph数据扩展。
- 统一了SparkSQL的扩展数据源,统一采用DataSourceV2进行Nebula Graph数据扩展。

- 支持`insert``update`两种写入模式。`insert`模式会插入(覆盖)数据,`update`模式仅会更新已存在的数据。

Expand All @@ -47,7 +47,7 @@ Nebula Spark Connector {{sparkconnector.release}}版本特性如下:
1. 克隆仓库`nebula-spark-utils`

```bash
$ git clone -b {{sparkconnector.release}} https://github.com/vesoft-inc/nebula-spark-utils.git
$ git clone -b {{sparkconnector.branch}} https://github.com/vesoft-inc/nebula-spark-utils.git
```

2. 进入目录`nebula-spark-connector`
Expand Down Expand Up @@ -215,7 +215,7 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices()
|`withSpace` || Nebula Graph图空间名称。 |
|`withTag` || 写入点时需要关联的Tag名称。 |
|`withVidField` || DataFrame中作为点ID的列。 |
|`withVidPolicy` || 写入点ID时,采用的映射函数,Nebula Graph 2.0仅支持HASH。默认不做映射。 |
|`withVidPolicy` || 写入点ID时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 |
|`withVidAsProp` || DataFrame中作为点ID的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Tag中有和`VidField`相同的属性名。 |
|`withUser` || Nebula Graph用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 |
|`withPasswd` || Nebula Graph用户名对应的密码。 |
Expand All @@ -229,9 +229,9 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices()
|`withSpace` || Nebula Graph图空间名称。 |
|`withEdge` || 写入边时需要关联的Edge type名称。 |
|`withSrcIdField` || DataFrame中作为起始点的列。 |
|`withSrcPolicy` || 写入起始点时,采用的映射函数,Nebula Graph 2.0仅支持HASH。默认不做映射。 |
|`withSrcPolicy` || 写入起始点时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 |
|`withDstIdField` || DataFrame中作为目的点的列。 |
|`withDstPolicy` || 写入目的点时,采用的映射函数,Nebula Graph 2.0仅支持HASH。默认不做映射。 |
|`withDstPolicy` || 写入目的点时,采用的映射函数,Nebula Graph 2.x仅支持HASH。默认不做映射。 |
|`withRankField` || DataFrame中作为rank的列。默认不写入rank。 |
|`withSrcAsProperty` || DataFrame中作为起始点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Edge type中有和`SrcIdField`相同的属性名。 |
|`withDstAsProperty` || DataFrame中作为目的点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保Edge type中有和`DstIdField`相同的属性名。 |
Expand Down

0 comments on commit 45b870e

Please sign in to comment.