Skip to content

Commit

Permalink
backup: change the location for s3-multi-part-size (#11568) (#11571)
Browse files Browse the repository at this point in the history
  • Loading branch information
ti-chi-bot authored Oct 12, 2022
1 parent 15c52ca commit d2510a9
Showing 1 changed file with 10 additions and 10 deletions.
20 changes: 10 additions & 10 deletions tikv-configuration-file.md
Original file line number Diff line number Diff line change
Expand Up @@ -1594,6 +1594,16 @@ Raft Engine 相关的配置项。
+ 在集群资源占用率较高的情况下,是否允许 BR 自动限制备份使用的资源,减少对集群的影响。详情见[自动调节](/br/br-auto-tune.md)
+ 默认值:true

### `s3-multi-part-size` <span class="version-mark">从 v5.3.2 版本开始引入</span>

> **注意:**
>
> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。
+ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。
+ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。
+ 默认值:5MiB

## cdc

用于 TiCDC 捕捉变更数据相关的配置项。
Expand Down Expand Up @@ -1728,13 +1738,3 @@ Raft Engine 相关的配置项。
+ TiKV 会根据前一周期的使用情况,来调整时间戳的缓存数量。如果本地缓存使用率偏低,TiKV 会逐步降低缓存数量,直至等于 `renew-batch-min-size`。如果业务中经常出现突发的大流量写入,可以适当调大这个参数。注意这个参数是单个 tikv-server 的缓存大小,如果配置过大、而同时集群中 tikv-server 较多,会导致 TSO 消耗过快。
+ Grafana **TiKV-Raw** 面板下 **Causal timestamp** 中的 **TSO batch size** 是根据业务负载动态调整后的本地缓存数量。可以参考该监控指标值调整这个参数的大小。
+ 默认值:100

### `s3-multi-part-size` <span class="version-mark">从 v5.3.2 版本开始引入</span>

> **注意:**
>
> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。
+ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。
+ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。
+ 默认值:5MiB

0 comments on commit d2510a9

Please sign in to comment.