diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md index ae3de6cf4efa..737ef00fc1f9 100644 --- a/tikv-configuration-file.md +++ b/tikv-configuration-file.md @@ -1590,6 +1590,16 @@ Raft Engine 相关的配置项。 + 在集群资源占用率较高的情况下,是否允许 BR 自动限制备份使用的资源,减少对集群的影响。详情见[自动调节](/br/br-auto-tune.md)。 + 默认值:true +### `s3-multi-part-size` 从 v5.3.2 版本开始引入 + +> **注意:** +> +> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。 + ++ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。 ++ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。 ++ 默认值:5MiB + ## log-backup 用于日志备份相关的配置项。 @@ -1818,13 +1828,3 @@ Raft Engine 相关的配置项。 + TiKV 会根据前一周期的使用情况,来调整时间戳的缓存数量。如果本地缓存使用率偏低,TiKV 会逐步降低缓存数量,直至等于 `renew-batch-min-size`。如果业务中经常出现突发的大流量写入,可以适当调大这个参数。注意这个参数是单个 tikv-server 的缓存大小,如果配置过大、而同时集群中 tikv-server 较多,会导致 TSO 消耗过快。 + Grafana **TiKV-Raw** 面板下 **Causal timestamp** 中的 **TSO batch size** 是根据业务负载动态调整后的本地缓存数量。可以参考该监控指标值调整这个参数的大小。 + 默认值:100 - -### `s3-multi-part-size` 从 v5.3.2 版本开始引入 - -> **注意:** -> -> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。 - -+ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。 -+ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。 -+ 默认值:5MiB