title | aliases | |||||||
---|---|---|---|---|---|---|---|---|
使用 TiUP 升级 TiDB |
|
本文档适用于使用 TiUP 从 TiDB 3.0 或 3.1 版本升级至 TiDB 4.0 版本,以及从 4.0 版本升级至后续版本。
如果原集群使用 TiDB Ansible 部署,TiUP 也支持将 TiDB Ansible 配置导入,并完成升级。
注意:
从 TiDB v4.0 起,PingCAP 不再提供 TiDB Ansible 的支持。从 v5.0 起,不再提供 TiDB Ansible 的文档。如需阅读使用 TiDB Ansible 升级 TiDB 集群的文档,可参阅 v4.0 版使用 TiDB Ansible 升级 TiDB。
- 不支持在升级后回退至 3.0 或更旧版本。
- 3.0 之前的版本,需要先通过 TiDB Ansible 升级到 3.0 版本,然后按照本文档的说明,使用 TiUP 将 TiDB Ansible 配置导入,再升级到 4.0 版本。
- TiDB Ansible 配置导入到 TiUP 中管理后,不能再通过 TiDB Ansible 对集群进行操作,否则可能因元信息不一致造成冲突。
- 对于满足以下情况之一的 TiDB Ansible 部署的集群,暂不支持导入:
- 启用了
TLS
加密功能的集群 - 纯 KV 集群(没有 TiDB 实例的集群)
- 启用了
Kafka
的集群 - 启用了
Spark
的集群 - 启用了
Lightning
/Importer
的集群 - 仍使用老版本
'push'
的方式收集监控指标(从 3.0 默认为'pull'
模式,如果没有特意调整过则可以支持) - 在
inventory.ini
配置文件中单独为机器的 node_exporter / blackbox_exporter 通过node_exporter_port
/blackbox_exporter_port
设置了非默认端口(在group_vars
目录中统一配置的可以兼容)或者单独为某一台机器的 node_exporter / blackbox_exporter 设置了和其他机器的 node_exporter / blackbox_exporter 不同的deploy_dir
- 启用了
- 支持 TiDB Binlog,TiCDC,TiFlash 等组件版本的升级。
- 从 2.0.6 之前的版本升级到 4.0 版本之前,需要确认集群中是否存在正在运行中的 DDL 操作,特别是耗时的
Add Index
操作,等 DDL 操作完成后再执行升级操作 - 2.1 及之后版本启用了并行 DDL,早于 2.0.1 版本的集群,无法滚动升级到 4.0 版本,可以选择下面两种方案:
- 停机升级,直接从早于 2.0.1 的 TiDB 版本升级到 4.0 版本
- 先滚动升级到 2.0.1 或者之后的 2.0.x 版本,再滚动升级到 4.0 版本
注意:
在升级的过程中不要执行 DDL 请求,否则可能会出现行为未定义的问题。
-
在中控机上执行如下命令安装 TiUP:
{{< copyable "shell-regular" >}}
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
-
重新声明全局环境变量:
{{< copyable "shell-regular" >}}
source .bash_profile
-
确认 TiUP 工具是否安装:
{{< copyable "shell-regular" >}}
which tiup
-
安装 TiUP 的 cluster 工具:
{{< copyable "shell-regular" >}}
tiup cluster
如果之前安装过 TiUP,使用如下命令更新至最新版本即可:
{{< copyable "shell-regular" >}}
tiup update cluster
注意:
如果
tiup --version
显示tiup
版本低于v1.0.0
,请在执行tiup update cluster
之前先执行tiup update --self
命令更新tiup
版本。
注意:
- 目前 TiUP 仅支持
systemd
的进程管理模式。如果此前使用 TiDB Ansible 部署时选择了supervise
,需要先按使用 TiDB Ansible 部署 TiDB 集群迁移到systemd
。- 如果原集群已经是 TiUP 部署,可以跳过此步骤。
- 目前默认识别
inventory.ini
配置文件,如果你的配置为其他名称,请指定。- 你需要确保当前集群的状态与
inventory.ini
中的拓扑一致,并确保集群的组件运行正常,否则导入后会导致集群元信息异常。- 如果在一个 TiDB Ansible 目录中管理多个不同的
inventory.ini
配置文件和 TiDB 集群,将其中一个集群导入到 TiUP 时,需要指定--no-backup
以避免将 Ansible 目录移动到 TiUP 管理目录下面。
-
以
/home/tidb/tidb-ansible
为示例路径,使用如下命令将 TiDB Ansible 集群导入到 TiUP 中:{{< copyable "shell-regular" >}}
tiup cluster import -d /home/tidb/tidb-ansible
-
执行导入命令后,若集群
Inventory
信息解析成功,将出现如下提示:{{< copyable "shell-regular" >}}
tiup cluster import -d /home/tidb/tidb-ansible/
Found inventory file /home/tidb/tidb-ansible/inventory.ini, parsing... Found cluster "ansible-cluster" (v3.0.12), deployed with user tidb. Prepared to import TiDB v3.0.12 cluster ansible-cluster. Do you want to continue? [y/N]:
-
核对解析得到的集群名和版本无误后,输入
y
确认继续执行。-
若
Inventory
信息解析出错,导入过程将会终止,终止不会对原 Ansible 部署方式有任何影响,之后需根据错误提示调整并重试。 -
若 Ansible 中原集群名与 TiUP 中任一已有集群的名称重复,将会给出警示信息并提示输入一个新的集群名。因此,请注意不要重复对同一个集群执行导入,导致 TiUP 中同一个集群有多个名字
-
导入完成后,可以通过 tiup cluster display <cluster-name>
查看当前集群状态以验证导入结果。由于 display
命令会查询各节点的实时状态,所以命令执行可能需要等待少许时间。
注意:
以下情况可跳过该步骤:
- 原集群没有修改过配置参数。
- 升级后希望使用
4.0
默认参数。
-
进入 TiDB Ansible 的备份目录
~/.tiup/storage/cluster/clusters/{cluster_name}/ansible-imported-configs
,确认配置模板中修改过的参数。 -
进入拓扑文件的
vi
编辑模式:{{< copyable "shell-regular" >}}
tiup cluster edit-config <cluster-name>
-
参考 topology 配置模板的格式,将原集群修改过的参数填到拓扑文件的
server_configs
下面。
修改完成后 wq
保存并退出编辑模式,输入 Y
确认变更。
注意:
升级到 4.0 版本前,请确认已在 3.0 修改的参数在 4.0 版本中是兼容的,可参考配置模板。
TiUP 版本 <= v1.0.8 可能无法正确获取 TiFlash 的数据目录,需要确认
data_dir
与 TiFlash 配置的path
值是否一致。若不一致需要进行如下操作把 TiFlash 的data_dir
改成与path
一致的值:
执行
tiup cluster edit-config <cluster-name>
命令修改配置文件。修改对应 TiFlash 的
data_dir
配置:tiflash_servers: - host: 10.0.1.14 data_dir: /data/tiflash-11315 # 修改为 TiFlash 配置文件的 `path` 值
本部分介绍如何滚动升级 TiDB 集群以及升级后的验证。
{{< copyable "shell-regular" >}}
tiup cluster upgrade <cluster-name> <version>
以升级到 v4.0.0 版本为例:
{{< copyable "shell-regular" >}}
tiup cluster upgrade <cluster-name> v4.0.0
滚动升级会逐个升级所有的组件。升级 TiKV 期间,会逐个将 TiKV 上的所有 leader 切走再停止该 TiKV 实例。默认超时时间为 5 分钟,超过后会直接停止实例。
如果不希望驱逐 leader,而希望立刻升级,可以在上述命令中指定 --force
,该方式会造成性能抖动,不会造成数据损失。
如果希望保持性能稳定,则需要保证 TiKV 上的所有 leader 驱逐完成后再停止该 TiKV 实例,可以指定 --transfer-timeout
为一个超大值,如 --transfer-timeout 100000000
,单位为 s。
执行 display
命令来查看最新的集群版本 TiDB Version
:
{{< copyable "shell-regular" >}}
tiup cluster display <cluster-name>
Starting /home/tidblk/.tiup/components/cluster/v1.0.0/cluster display <cluster-name>
TiDB Cluster: <cluster-name>
TiDB Version: v4.0.0
注意:
TiUP 及 TiDB(v4.0.2 起)默认会收集使用情况信息,并将这些信息分享给 PingCAP 用于改善产品。若要了解所收集的信息详情及如何禁用该行为,请参见遥测。
本部分介绍使用 TiUP 升级 TiDB 集群遇到的常见问题。
重新执行 tiup cluster upgrade
命令进行升级,升级操作会重启之前已经升级完成的节点。TiDB 4.0 后续版本将支持从中断的位置继续升级。
可以指定 --force
,升级时会跳过 PD transfer leader
和 TiKV evict leader
过程,直接重启并升级版本,对线上运行的集群影响较大。命令如下:
{{< copyable "shell-regular" >}}
tiup cluster upgrade <cluster-name> v4.0.0 --force
目前 TiUP 没有对周边工具的版本进行管理更新,如需下载最新版本的工具包,直接下载 TiDB 安装包即可,将 {version}
替换为对应的版本如 v4.0.0
,下载地址如下:
{{< copyable "" >}}
https://download.pingcap.org/tidb-{version}-linux-amd64.tar.gz
TiFlash 在 v4.0.0-rc.2
之前的版本可能有一些不兼容的问题。因此,如果将包含 TiFlash 组件的集群由此前版本升级至 v4.0.0-rc.2
之后版本的过程中遇到问题,可在 ASK TUG 反馈,寻求研发人员支持。
oom-action
参数设置为cancel
时,当查询语句触发 OOM 阈值后会被 kill 掉,升级到 4.0 版本后除了select
语句,还可能 kill 掉insert
/update
/delete
等 DML 语句。- 4.0 版本增加了
rename
时对表名长度的检查,长度限制为64
个字符。升级后rename
后的表名长度超过这个限制会报错,3.0 及之前的版本则不会报错。 - 4.0 版本增加了对分区表的分区名长度的检查,长度限制为
64
个字符。升级后,当你创建和修改分区表时,如果分区名长度超过这个限制会报错,3.0 及之前的版本则不会报错。 - 4.0 版本对
explain
执行计划的输出格式做了改进,需要注意是否有针对explain
制订了自动化的分析程序。 - 4.0 版本支持 Read Committed 隔离级别。升级到 4.0 后,在悲观事务里隔离级别设置为
READ-COMMITTED
会生效,3.0 及之前的版本则不会生效。 - 4.0 版本执行
alter reorganize partition
会报错,之前的版本则不会报错,只是语法上支持没有实际效果。 - 4.0 版本创建
linear hash partition
和subpartition
分区表时实际不生效,会转换为普通表,之前的版本则转换为普通分区表。