diff --git a/docs-2.0/3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md b/docs-2.0/3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md index 6646747ace0..0b92c71de5b 100644 --- a/docs-2.0/3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md +++ b/docs-2.0/3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md @@ -28,6 +28,7 @@ Execution succeeded ## 保留关键字 ```ngql +ACROSS ADD ALTER AND diff --git a/docs-2.0/3.ngql-guide/14.native-index-statements/5.show-native-index-status.md b/docs-2.0/3.ngql-guide/14.native-index-statements/5.show-native-index-status.md index 99a1fedfd51..ee419a5f1b5 100644 --- a/docs-2.0/3.ngql-guide/14.native-index-statements/5.show-native-index-status.md +++ b/docs-2.0/3.ngql-guide/14.native-index-statements/5.show-native-index-status.md @@ -1,6 +1,6 @@ # SHOW INDEX STATUS -`SHOW INDEX STATUS`语句可以查看索引名称和对应的状态。 +`SHOW INDEX STATUS`语句可以查看索引名称和对应作业的状态。 索引状态包括: diff --git a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md index 3bc409624d9..c995f13db20 100644 --- a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md +++ b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md @@ -2,12 +2,16 @@ `BALANCE`语句可以让 Nebula Graph 的 Storage 服务实现负载均衡。更多`BALANCE`语句示例和 Storage 负载均衡,请参见 [Storage 负载均衡](../../8.service-tuning/load-balance.md)。 +!!! compatibility "历史版本兼容性" + + Neubla Graph 3.0.0 新增 Zone 功能导致 Balance 命令发生变化,3.0.0 之前版本的命令不再兼容。 + `BALANCE`语法说明如下。 |语法|说明| |:---|:---| -|`BALANCE DATA`|启动任务均衡分布 Nebula Graph 集群中(或 Group 中)的所有分片。该命令会返回任务 ID(`balance_id`)。| -|`BALANCE DATA `|显示`BALANCE DATA`任务的状态。| -|`BALANCE DATA STOP`|停止`BALANCE DATA`任务。| -|`BALANCE DATA REMOVE `|在 Nebula Graph 集群中扫描并解绑指定的 Storage 主机。| -|`BALANCE LEADER`|在 Nebula Graph 集群中(或 Group 中)均衡分布 leader。| +|`BALANCE IN ZONE [REMOVE : [,: ...]]`|在当前图空间内每个 Zone 内部启动任务均衡分布分片。该命令会返回任务 ID。可以使用`REMOVE`选项指定需要清空的 Storage 节点,方便进行维护。| +|`BALANCE ACROSS ZONE [REMOVE "zone_name" [,"zone_name" ...]]`|在当前图空间内所有 Zone 之间启动任务均衡分布分片,保证各个 Zone 分片数量平衡。该命令会返回任务 ID。可以使用`REMOVE`选项指定需要清空的 Zone,方便进行维护。| +|`BALANCE LEADER`|在当前图空间内所有 Zone 之间启动任务均衡分布 leader。该命令会返回任务 ID。| + +查看、停止、重启任务,请参见[作业管理](4.job-statements.md)。 diff --git a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/4.job-statements.md b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/4.job-statements.md index 29ed1f0c19e..18d12e6f408 100644 --- a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/4.job-statements.md +++ b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/4.job-statements.md @@ -6,13 +6,43 @@ 所有作业管理命令都需要先选择图空间后才能执行。 +## SUBMIT JOB BALANCE IN ZONE + +`SUBMIT JOB BALANCE IN ZONE`语句会在当前图空间内每个 Zone 内部启动任务均衡分布分片。该命令会返回任务 ID。可以使用`REMOVE`选项指定需要清空的 Storage 节点,方便进行维护。 + +示例: + +```ngql +nebula> SUBMIT JOB BALANCE IN ZONE REMOVE 192.168.10.102:9779; ++------------+ +| New Job Id | ++------------+ +| 26 | ++------------+ +``` + +## SUBMIT JOB BALANCE ACROSS ZONE + +`SUBMIT JOB BALANCE ACROSS ZONE`语句会在当前图空间内所有 Zone 之间启动任务均衡分布分片,保证各个 Zone 分片数量平衡。该命令会返回任务 ID。可以使用`REMOVE`选项指定需要清空的 Zone,方便进行维护。 + +示例: + +```ngql +nebula> SUBMIT JOB BALANCE ACROSS ZONE REMOVE "zone1"; ++------------+ +| New Job Id | ++------------+ +| 27 | ++------------+ +``` + ## SUBMIT JOB COMPACT -`SUBMIT JOB COMPACT` 语句会触发 RocksDB 的长耗时 `compact` 操作。 +`SUBMIT JOB COMPACT` 语句会在当前图空间内触发 RocksDB 的长耗时 `compact` 操作。 `compact`配置详情请参见 [Storage 服务配置](../../5.configurations-and-logs/1.configurations/4.storage-config.md)。 -### 示例 +示例: ```ngql nebula> SUBMIT JOB COMPACT; @@ -25,9 +55,9 @@ nebula> SUBMIT JOB COMPACT; ## SUBMIT JOB FLUSH -`SUBMIT JOB FLUSH`语句将内存中的 RocksDB memfile 写入硬盘。 +`SUBMIT JOB FLUSH`语句将当前图空间内存中的 RocksDB memfile 写入硬盘。 -### 示例 +示例: ```ngql nebula> SUBMIT JOB FLUSH; @@ -40,13 +70,13 @@ nebula> SUBMIT JOB FLUSH; ## SUBMIT JOB STATS -`SUBMIT JOB STATS`语句启动一个作业,该作业对当前图空间进行统计。作业完成后,用户可以使用`SHOW STATS`语句列出统计结果。详情请参见 [SHOW STATS](../7.general-query-statements/6.show/14.show-stats.md)。 +`SUBMIT JOB STATS`语句会在当前图空间内启动一个作业,该作业对当前图空间进行统计。作业完成后,用户可以使用`SHOW STATS`语句列出统计结果。详情请参见 [SHOW STATS](../7.general-query-statements/6.show/14.show-stats.md)。 !!! Note 如果存储在 Nebula Graph 中的数据有变化,为了获取最新的统计结果,请重新执行`SUBMIT JOB STATS`。 -### 示例 +示例: ```ngql nebula> SUBMIT JOB STATS; @@ -63,7 +93,7 @@ Meta 服务将`SUBMIT JOB`请求解析为多个任务,然后分配给进程 ne `job_id`在执行`SUBMIT JOB`语句时会返回。 -### 示例 +示例: ```ngql nebula> SHOW JOB 34; @@ -112,7 +142,7 @@ Queue -- running -- finished -- removed 作业的默认过期时间为一周。如果需要修改过期时间,请修改 Meta 服务的参数`job_expired_secs`。详情请参见 [Meta 服务配置](../../5.configurations-and-logs/1.configurations/2.meta-config.md)。 -### 示例 +示例: ```ngql nebula> SHOW JOBS; @@ -129,9 +159,9 @@ nebula> SHOW JOBS; ## STOP JOB -`STOP JOB`语句可以停止当前图空间内未完成的作业。 +`STOP JOB `语句可以停止当前图空间内未完成的作业。 -### 示例 +示例: ```ngql nebula> STOP JOB 22; @@ -144,9 +174,9 @@ nebula> STOP JOB 22; ## RECOVER JOB -`RECOVER JOB`语句会重新执行当前图空间内失败的作业,并返回已恢复的作业数量。 +`RECOVER JOB []`语句可以重新执行当前图空间内状态为`QUEUE`、`FAILED`、`STOPPED`的作业,未指定``时,会从最早的作业开始尝试重新执行,并返回已恢复的作业数量。 -### 示例 +示例: ```ngql nebula> RECOVER JOB; diff --git a/docs-2.0/4.deployment-and-installation/5.zone.md b/docs-2.0/4.deployment-and-installation/5.zone.md index c8d56761ce5..9c91b0efe5c 100644 --- a/docs-2.0/4.deployment-and-installation/5.zone.md +++ b/docs-2.0/4.deployment-and-installation/5.zone.md @@ -55,7 +55,7 @@ nebula> SHOW ZONES; !!! note - 加入之后请使用 [BALANCE DATA](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md) 命令实现负载均衡。 + 加入之后请使用 [BALANCE](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md) 命令实现负载均衡。 ```ngql ADD HOSTS : [,: ...] INTO ZONE ""; @@ -118,6 +118,10 @@ DROP ZONE ""; 合并时将检查所有图空间分片的分布情况,防止同一个分片的不同副本因为合并导致分布在同一个 Zone 中。 +!!! note + + 合并之后请使用 [BALANCE](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md) 命令实现负载均衡。 + ```ngql MERGE ZONE "" [,"" ...] INTO ""; ``` @@ -134,7 +138,7 @@ MERGE ZONE "default_zone_192.168.10.100_9779","default_zone_192.168.10.101_9779" !!! note - 分离之后请使用 [BALANCE DATA](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md) 命令实现负载均衡。 + 分离之后请使用 [BALANCE](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md) 命令实现负载均衡。 ```ngql DIVIDE ZONE "" INTO ""(:) [""(:) ...]; diff --git a/docs-2.0/5.configurations-and-logs/1.configurations/3.graph-config.md b/docs-2.0/5.configurations-and-logs/1.configurations/3.graph-config.md index 44afec77bc2..d9978d65f6f 100644 --- a/docs-2.0/5.configurations-and-logs/1.configurations/3.graph-config.md +++ b/docs-2.0/5.configurations-and-logs/1.configurations/3.graph-config.md @@ -97,7 +97,7 @@ Graph 服务提供了两份初始配置文件`nebula-graphd.conf.default`和`neb | 名称 | 预设值 | 说明 | | ------------------- | ------------------------ | ------------------------------------------ | -| `system_memory_high_watermark_ratio` | - |内存高水位报警机制的触发阈值,默认为`0.9`。系统内存占用率高于该值会触发报警机制,Nebula Graph 会停止接受查询。| +| `system_memory_high_watermark_ratio` | `0.8` |内存高水位报警机制的触发阈值。系统内存占用率高于该值会触发报警机制,Nebula Graph 会停止接受查询。| ## metrics 配置 diff --git a/docs-2.0/8.service-tuning/load-balance.md b/docs-2.0/8.service-tuning/load-balance.md index 5974a46b37a..4eb17a54b19 100644 --- a/docs-2.0/8.service-tuning/load-balance.md +++ b/docs-2.0/8.service-tuning/load-balance.md @@ -1,131 +1,135 @@ # Storage 负载均衡 -用户可以使用`BALANCE`语句平衡分片和 Raft leader 的分布,或者删除冗余的 Storage 服务器。 - -## 均衡分片分布 - -`BALANCE DATA`语句会开始一个任务,将 Nebula Graph 集群中的分片平均分配到所有 Storage 服务器。通过创建和执行一组子任务来迁移数据和均衡分片分布。 +用户可以使用`BALANCE`语句平衡分片和 Raft leader 的分布,或者清空某些 Storage 服务器方便进行维护。详情请参见 [BALANCE](../3.ngql-guide/18.operation-and-maintenance-statements/2.balance-syntax.md)。 !!! danger - 不要停止集群中的任何机器或改变机器的 IP 地址,直到所有子任务完成,否则后续子任务会失败。 + `BALANCE`命令通过创建和执行一组子任务来迁移数据和均衡分片分布,不要停止集群中的任何机器或改变机器的 IP 地址,直到所有子任务完成,否则后续子任务会失败。 + +## 均衡分片分布 ### 示例 -以横向扩容 Nebula Graph 为例,集群中增加新的 Storage 服务器后,新服务器上没有分片。 - -1. 执行命令 [`SHOW HOSTS`](../3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md) 检查分片的分布。 - - ```ngql - nebual> SHOW HOSTS; - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - | Host | Port | Status | Leader count | Leader distribution | Partition distribution | - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - | "storaged0" | 9779 | "ONLINE" | 4 | "basketballplayer:4" | "basketballplayer:15" | - | "storaged1" | 9779 | "ONLINE" | 8 | "basketballplayer:8" | "basketballplayer:15" | - | "storaged2" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:15" | - | "storaged3" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | - | "storaged4" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | - | "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - ``` - -2. 执行命令`BALANCE DATA`将所有分片均衡分布。 - - ```ngql - nebula> BALANCE DATA; - +------------+ - | ID | - +------------+ - | 1614237867 | - +------------+ - ``` - -3. 根据返回的任务 ID,执行命令`BALANCE DATA `检查任务状态。 - - ```ngql - nebula> BALANCE DATA 1614237867; - +--------------------------------------------------------------+-------------------+ - | balanceId, spaceId:partId, src->dst | status | - +--------------------------------------------------------------+-------------------+ - | "[1614237867, 11:1, storaged1:9779->storaged3:9779]" | "SUCCEEDED" | - | "[1614237867, 11:1, storaged2:9779->storaged4:9779]" | "SUCCEEDED" | - | "[1614237867, 11:2, storaged1:9779->storaged3:9779]" | "SUCCEEDED" | - ... - | "Total:22, Succeeded:22, Failed:0, In Progress:0, Invalid:0" | 100 | - +--------------------------------------------------------------+-------------------+ - ``` - -4. 等待所有子任务完成,负载均衡进程结束,执行命令`SHOW HOSTS`确认分片已经均衡分布。 +以横向扩容 Nebula Graph 为例,Zone 中增加新的 Storage 服务器后,新服务器上没有分片。 + +1. 将新增的 3 台 Storage 服务器加入集群,分别加入图空间`basketballplayer`所属的 Zone。关于 Zone 的介绍请参见[管理逻辑机架(Zone)](../4.deployment-and-installation/5.zone.md)。 + + ```ngql + nebual> ADD HOSTS 192.168.10.103:9779 INTO ZONE "zone1"; + nebual> ADD HOSTS 192.168.10.104:9779 INTO ZONE "zone2"; + nebual> ADD HOSTS 192.168.10.105:9779 INTO ZONE "zone3"; + ``` + +2. 执行命令 [`SHOW HOSTS`](../3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md) 检查分片的分布。 + + ```ngql + nebual> SHOW HOSTS; + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + Host | Port | Status | Leader count | Leader distribution | Partition distribution | + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + | "192.168.10.100" | 9779 | "ONLINE" | 4 | "basketballplayer:4" | "basketballplayer:15" | + | "192.168.10.101" | 9779 | "ONLINE" | 8 | "basketballplayer:8" | "basketballplayer:15" | + | "192.168.10.102" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:15" | + | "192.168.10.103" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | + | "192.168.10.104" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | + | "192.168.10.105" | 9779 | "ONLINE" | 0 | "No valid partition" | "No valid partition" | + | "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + ``` + +3. 执行命令`BALANCE IN ZONE`将当前图空间内每个 Zone 内部的分片均衡分布。 + + ```ngql + nebula> USE basketballplayer; + nebula> BALANCE IN ZONE; + +------------+ + | New Job Id | + +------------+ + | 30 | + +------------+ + ``` + +4. 根据返回的作业 ID,执行命令`SHOW JOB `检查作业状态。 + + ```ngql + nebula> SHOW JOB 30; + +-------------------------+--------------------------------------------+-------------+---------------------------------+---------------------------------+ + | Job Id(spaceId:partId) | Command(src->dst) | Status | Start Time | Stop Time | + +-------------------------+--------------------------------------------+-------------+---------------------------------+---------------------------------+ + | 30 | "DATA_BALANCE" | "FINISHED" | "2022-01-12T02:27:00.000000000" | "2022-01-12T02:30:31.000000000" | + | "30, 23:1" | "192.168.10.100:9779->192.168.10.103:9779" | "SUCCEEDED" | 2022-01-12T02:27:00.000000 | 2022-01-12T02:27:30.000000 | + | "30, 23:2" | "192.168.10.100:9779->192.168.10.103:9779" | "SUCCEEDED" | 2022-01-12T02:27:00.000000 | 2022-01-12T02:27:01.000000 | + ...... + | "Total:21" | "Succeeded:21" | "Failed:0" | "In Progress:0" | "Invalid:0" | + +-------------------------+--------------------------------------------+-------------+---------------------------------+---------------------------------+ + ``` + +5. 等待所有子任务完成,负载均衡进程结束,执行命令`SHOW HOSTS`确认分片已经均衡分布。 !!! Note - `BALANCE DATA`不会均衡 leader 的分布。均衡 leader 请参见[均衡 leader 分布](#leader)。 - - ```ngql - nebula> SHOW HOSTS; - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - | Host | Port | Status | Leader count | Leader distribution | Partition distribution | - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - | "storaged0" | 9779 | "ONLINE" | 4 | "basketballplayer:4" | "basketballplayer:9" | - | "storaged1" | 9779 | "ONLINE" | 8 | "basketballplayer:8" | "basketballplayer:9" | - | "storaged2" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | - | "storaged3" | 9779 | "ONLINE" | 0 | "No valid partition" | "basketballplayer:9" | - | "storaged4" | 9779 | "ONLINE" | 0 | "No valid partition" | "basketballplayer:9" | - | "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | - +-------------+------+----------+--------------+-----------------------------------+------------------------+ - ``` - -如果有子任务失败,请重新执行`BALANCE DATA`。如果重做负载均衡仍然不能解决问题,请到 [Nebula Graph 社区](https://discuss.nebula-graph.com.cn/)寻求帮助。 + `BALANCE IN ZONE`不会均衡 leader 的分布。均衡 leader 请参见[均衡 leader 分布](#leader)。 -## 停止负载均衡任务 + ```ngql + nebula> SHOW HOSTS; + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + | Host | Port | Status | Leader count | Leader distribution | Partition distribution | + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + | "192.168.10.100" | 9779 | "ONLINE" | 4 | "basketballplayer:4" | "basketballplayer:8" | + | "192.168.10.101" | 9779 | "ONLINE" | 8 | "basketballplayer:8" | "basketballplayer:8" | + | "192.168.10.102" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:8" | + | "192.168.10.103" | 9779 | "ONLINE" | 0 | "No valid partition" | "basketballplayer:7" | + | "192.168.10.104" | 9779 | "ONLINE" | 0 | "No valid partition" | "basketballplayer:7" | + | "192.168.10.105" | 9779 | "ONLINE" | 0 | "No valid partition" | "basketballplayer:7" | + | "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | + +------------------+------+----------+--------------+-----------------------------------+------------------------+ + ``` -停止负载均衡任务,请执行命令`BALANCE DATA STOP`。 +如果有子任务失败,请重启作业,详情参见[作业管理](4.job-statements.md)。如果重做负载均衡仍然不能解决问题,请到 [Nebula Graph 社区](https://discuss.nebula-graph.com.cn/)寻求帮助。 -- 如果没有正在执行的负载均衡任务,会返回错误。 +## 停止负载均衡作业 -- 如果有正在执行的负载均衡任务,会返回停止的任务 ID(`balance_id`)。 +停止负载均衡作业,请执行命令`STOP JOB `。 -`BALANCE DATA STOP`不会停止正在执行的子任务,而是取消所有后续子任务。用户可以执行命令`BALANCE DATA `检查停止的任务状态。 +- 如果没有正在执行的负载均衡作业,会返回错误。 -一旦所有子任务都完成或停止,用户可以再次执行命令`BALANCE DATA`。 +- 如果有正在执行的负载均衡作业,会返回`Job stopped`。 -- 如果前一个负载均衡任务的任何一个子任务失败,Nebula Graph 会重新启动之前的负载均衡任务。 - -- 如果前一个负载均衡任务的任何一个子任务都没有失败,Nebula Graph 会启动一个新的的负载均衡任务。 +!!! note -## 重置负载均衡任务 + - `STOP JOB `不会停止正在执行的子任务,而是取消所有后续子任务,状态会置为`INVALID`,然后等待正在执行的子任执行完毕根据结果置为`SUCCEEDED`或`FAILED`。用户可以执行命令`SHOW JOB `检查停止的作业状态。 + - 宕机重启后,作业状态变为`QUEUE`,子任务如果之前是`INVALID`或`FAILED`,状态会置为`IN_PROGRESS`,如果是`IN_PROGRESS`或`SUCCEEDED`则保持不变。 -如果停止负载均衡任务后重新执行仍然失败,可以尝试用命令`BALANCE DATA RESET PLAN`重置负载均衡任务,该操作会清空旧的任务。之后再使用`BALANCE DATA`命令,会新建负载均衡任务,而不是执行旧的任务。 +一旦所有子任务都完成或停止,用户可以再次执行命令`RECOVER JOB `重启作业,子任务按原有的状态继续执行。 ## 移除 Storage 服务器 -移除指定的 Storage 服务器来缩小集群规模,可以使用命令`BALANCE DATA REMOVE `。 +移除指定的 Storage 服务器来缩小集群规模,可以使用命令`BALANCE IN ZONE REMOVE : [,: ...]`将指定 Storage 服务器清空,然后使用命令`DROP HOSTS : [,: ...]`将指定 Storage 服务器移除。 ### 示例 如果需要移除以下两台 Storage 服务器。 -|服务器名称|IP 地址|端口| -|:---|:---|:---| -|storage3|192.168.0.8|9779| -|storage4|192.168.0.9|9779| - -请执行如下命令: +|IP 地址|端口| +|:---|:---| +|192.168.10.104|9779| +|192.168.10.105|9779| -```ngql -BALANCE DATA REMOVE 192.168.0.8:9779,192.168.0.9:9779; -``` +1. 执行如下命令清空指定 Storage 服务器: -Nebula Graph 将启动一个负载均衡任务,迁移 storage3 和 storage4 中的分片,然后将服务器从集群中移除。 + ```ngql + nebula> BALANCE IN ZONE REMOVE 192.168.10.104:9779,192.168.10.105:9779; + ``` -!!! note +2. 等待作业完成后,执行如下命令移除指定 Storage 服务: - 已下线节点状态会显示为 OFFLINE。该记录一天后删除,或更改 meta 配置项 `removed_threshold_sec`。 + ```ngql + nebula> DROP HOSTS 192.168.10.104:9779,192.168.10.105:9779; + ``` ## 均衡 leader 分布 -`BALANCE DATA`只能均衡分片分布,不能均衡 Raft leader 分布。用户可以使用命令`BALANCE LEADER`均衡 leader 分布。 +用户可以使用命令`BALANCE LEADER`均衡 leader 分布。 ### 示例 @@ -137,16 +141,17 @@ nebula> BALANCE LEADER; ```ngql nebula> SHOW HOSTS; -+-------------+------+----------+--------------+-----------------------------------+------------------------+ -| Host | Port | Status | Leader count | Leader distribution | Partition distribution | -+-------------+------+----------+--------------+-----------------------------------+------------------------+ -| "storaged0" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | -| "storaged1" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | -| "storaged2" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | -| "storaged3" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | -| "storaged4" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:9" | -| "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | -+-------------+------+----------+--------------+-----------------------------------+------------------------+ ++------------------+------+----------+--------------+-----------------------------------+------------------------+ +| Host | Port | Status | Leader count | Leader distribution | Partition distribution | ++------------------+------+----------+--------------+-----------------------------------+------------------------+ +| "192.168.10.100" | 9779 | "ONLINE" | 4 | "basketballplayer:3" | "basketballplayer:8" | +| "192.168.10.101" | 9779 | "ONLINE" | 8 | "basketballplayer:3" | "basketballplayer:8" | +| "192.168.10.102" | 9779 | "ONLINE" | 3 | "basketballplayer:3" | "basketballplayer:8" | +| "192.168.10.103" | 9779 | "ONLINE" | 0 | "basketballplayer:2" | "basketballplayer:7" | +| "192.168.10.104" | 9779 | "ONLINE" | 0 | "basketballplayer:2" | "basketballplayer:7" | +| "192.168.10.105" | 9779 | "ONLINE" | 0 | "basketballplayer:2" | "basketballplayer:7" | +| "Total" | | | 15 | "basketballplayer:15" | "basketballplayer:45" | ++------------------+------+----------+--------------+-----------------------------------+------------------------+ ``` !!! caution