diff --git a/tikv-configuration-file.md b/tikv-configuration-file.md
index ae3de6cf4efa..737ef00fc1f9 100644
--- a/tikv-configuration-file.md
+++ b/tikv-configuration-file.md
@@ -1590,6 +1590,16 @@ Raft Engine 相关的配置项。
+ 在集群资源占用率较高的情况下,是否允许 BR 自动限制备份使用的资源,减少对集群的影响。详情见[自动调节](/br/br-auto-tune.md)。
+ 默认值:true
+### `s3-multi-part-size` 从 v5.3.2 版本开始引入
+
+> **注意:**
+>
+> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。
+
++ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。
++ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。
++ 默认值:5MiB
+
## log-backup
用于日志备份相关的配置项。
@@ -1818,13 +1828,3 @@ Raft Engine 相关的配置项。
+ TiKV 会根据前一周期的使用情况,来调整时间戳的缓存数量。如果本地缓存使用率偏低,TiKV 会逐步降低缓存数量,直至等于 `renew-batch-min-size`。如果业务中经常出现突发的大流量写入,可以适当调大这个参数。注意这个参数是单个 tikv-server 的缓存大小,如果配置过大、而同时集群中 tikv-server 较多,会导致 TSO 消耗过快。
+ Grafana **TiKV-Raw** 面板下 **Causal timestamp** 中的 **TSO batch size** 是根据业务负载动态调整后的本地缓存数量。可以参考该监控指标值调整这个参数的大小。
+ 默认值:100
-
-### `s3-multi-part-size` 从 v5.3.2 版本开始引入
-
-> **注意:**
->
-> 引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过[优化 BR 备份数据存储的目录结构](/br/backup-and-restore-design.md#备份文件布局)得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。
-
-+ 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。
-+ TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行[分块上传](https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/API/API_UploadPart.html)。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。
-+ 默认值:5MiB