diff --git a/TOC-tidb-cloud-premium.md b/TOC-tidb-cloud-premium.md
index 3138e84e8982d..18a4f5fcdb400 100644
--- a/TOC-tidb-cloud-premium.md
+++ b/TOC-tidb-cloud-premium.md
@@ -111,6 +111,8 @@
- 迁移或导入数据
- [概览](/tidb-cloud/tidb-cloud-migration-overview.md)
- 将数据迁移到 TiDB Cloud
+ - [使用 Data Migration 迁移现有数据和增量数据](/tidb-cloud/migrate-from-mysql-using-data-migration.md)
+ - [使用 Data Migration 迁移增量数据](/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md)
- [从 TiDB 自管理迁移到 TiDB Cloud Premium](/tidb-cloud/premium/migrate-from-op-tidb-premium.md)
- [迁移和合并大型数据集的 MySQL 分片](/tidb-cloud/migrate-sql-shards.md)
- [使用 AWS DMS 从 Amazon RDS for Oracle 迁移](/tidb-cloud/migrate-from-oracle-using-aws-dms.md)
@@ -146,7 +148,6 @@
- [配置 IP 访问列表](/tidb-cloud/premium/configure-ip-access-list-premium.md)
- [通过 AWS Private Endpoint 连接](/tidb-cloud/premium/connect-to-premium-via-aws-private-endpoint.md)
- [通过 Alibaba Cloud Private Endpoint 连接](/tidb-cloud/premium/connect-to-premium-via-alibaba-cloud-private-endpoint.md)
- - [为 Public Endpoint 配置防火墙规则](/tidb-cloud/configure-serverless-firewall-rules-for-public-endpoints.md)
- [通过 TLS 连接到 TiDB Cloud](/tidb-cloud/premium/tidb-cloud-tls-connect-to-premium.md)
- 数据访问控制
- [双层数据加密](/tidb-cloud/premium/dual-layer-data-encryption-premium.md)
@@ -172,15 +173,6 @@
- [n8n](/tidb-cloud/integrate-tidbcloud-with-n8n.md)
- [Netlify](/tidb-cloud/integrate-tidbcloud-with-netlify.md)
- [ProxySQL](/develop/dev-guide-proxysql-integration.md)
- - Terraform
- - [Terraform 集成概览](/tidb-cloud/terraform-tidbcloud-provider-overview.md)
- - [获取 TiDB Cloud Terraform Provider](/tidb-cloud/terraform-get-tidbcloud-provider.md)
- - [使用 `tidbcloud_serverless_cluster` 资源](/tidb-cloud/terraform-use-serverless-cluster-resource-manage-essential.md)
- - [使用 `tidbcloud_serverless_branch` 资源](/tidb-cloud/terraform-use-serverless-branch-resource.md)
- - [使用 `tidbcloud_serverless_export` 资源](/tidb-cloud/terraform-use-serverless-export-resource.md)
- - [使用 `tidbcloud_sql_user` 资源](/tidb-cloud/terraform-use-sql-user-resource.md)
- - [使用 `tidbcloud_import` 资源](/tidb-cloud/terraform-use-import-resource.md)
- - [迁移集群资源](/tidb-cloud/terraform-migrate-cluster-resource.md)
- [Vercel](/tidb-cloud/integrate-tidbcloud-with-vercel.md)
- [Zapier](/tidb-cloud/integrate-tidbcloud-with-zapier.md)
diff --git a/accelerated-table-creation.md b/accelerated-table-creation.md
index 5e1f1a707618c..b5f9c134a17de 100644
--- a/accelerated-table-creation.md
+++ b/accelerated-table-creation.md
@@ -5,7 +5,7 @@ summary: 了解 TiDB 中创建表的性能优化的概念、原理和实现细
# TiDB Accelerated Table Creation
-TiDB v7.6.0 引入了系统变量 [`tidb_ddl_version`](https://docs.pingcap.com/tidb/v7.6/system-variables#tidb_enable_fast_create_table-new-in-v800) 以支持加速创建表,从而提升批量创建表的效率。从 v8.0.0 版本开始,该系统变量被重命名为 [`tidb_enable_fast_create_table`](/system-variables.md#tidb_enable_fast_create_table-new-in-v800)。
+TiDB v7.6.0 引入了系统变量 [`tidb_ddl_version`](https://docs-archive.pingcap.com/tidb/v7.6/system-variables/#tidb_ddl_version-new-in-v760) 以支持加速创建表,从而提升批量创建表的效率。从 v8.0.0 版本开始,该系统变量被重命名为 [`tidb_enable_fast_create_table`](/system-variables.md#tidb_enable_fast_create_table-new-in-v800)。
当通过 [`tidb_enable_fast_create_table`](/system-variables.md#tidb_enable_fast_create_table-new-in-v800) 启用加速创建表后,在同一时间提交到同一 TiDB 节点的具有相同 schema 的创建表语句会被合并为批量创建表语句,以提高创建表的性能。因此,为了提升创建表的性能,建议连接到同一 TiDB 节点,且同时并发创建具有相同 schema 的表,并适当增加并发度。
diff --git a/control-execution-plan.md b/control-execution-plan.md
index b8a698c21fb8f..709d5a71d1ab8 100644
--- a/control-execution-plan.md
+++ b/control-execution-plan.md
@@ -11,14 +11,4 @@ SQL 调优的前两章介绍了如何理解 TiDB 的执行计划以及 TiDB 如
- 但 hints 会对 SQL 语句进行侵入式修改。在某些场景下,不能简单地插入 hints。在 [SQL Plan Management](/sql-plan-management.md) 中,你将了解 TiDB 如何使用另一种语法非侵入式地控制执行计划的生成,以及后台自动执行计划演化的方法。这种方法有助于解决由版本升级引起的执行计划不稳定和集群性能下降等问题。
- 最后,你将学习如何使用 [Blocklist of Optimization Rules and Expression Pushdown](/blocklist-control-plan.md) 中的 blocklist。
-
-
-除了上述方法外,执行计划还受到一些系统变量的影响。通过在系统级或会话级修改这些变量,你可以控制执行计划的生成。从 v6.5.3 和 v7.1.0 开始,TiDB 引入了一个较为特殊的变量 [`tidb_opt_fix_control`](/system-variables.md#tidb_opt_fix_control-new-in-v653-and-v710)。该变量可以接受多个控制项,以更细粒度地控制优化器的行为,从而防止集群升级后优化器行为变化引起的性能回归。有关更详细的介绍,请参考 [Optimizer Fix Controls](/optimizer-fix-controls.md)。
-
-
-
-
-
-除了上述方法外,执行计划还受到一些系统变量的影响。通过在系统级或会话级修改这些变量,你可以控制执行计划的生成。从 v6.5.3 和 v7.1.0 开始,TiDB 引入了一个较为特殊的变量 [`tidb_opt_fix_control`](/system-variables.md#tidb_opt_fix_control-new-in-v653-and-v710)。该变量可以接受多个控制项,以更细粒度地控制优化器的行为,从而防止集群升级后优化器行为变化引起的性能回归。有关更详细的介绍,请参考 [Optimizer Fix Controls](https://docs.pingcap.com/tidb/v7.2/optimizer-fix-controls)。
-
-
\ No newline at end of file
+除了上述方法外,执行计划还受到一些系统变量的影响。通过在系统级或会话级修改这些变量,你可以控制执行计划的生成。从 v6.5.3 和 v7.1.0 开始,TiDB 引入了一个较为特殊的变量 [`tidb_opt_fix_control`](/system-variables.md#tidb_opt_fix_control-new-in-v653-and-v710)。该变量可以接受多个控制项,以更细粒度地控制优化器的行为,从而防止集群升级后优化器行为变化引起的性能回归。有关更详细的介绍,请参考 [Optimizer Fix Controls](/optimizer-fix-controls.md)。
\ No newline at end of file
diff --git a/information-schema/information-schema-tidb-index-usage.md b/information-schema/information-schema-tidb-index-usage.md
index 6761d024d6a78..4f4d606d236ff 100644
--- a/information-schema/information-schema-tidb-index-usage.md
+++ b/information-schema/information-schema-tidb-index-usage.md
@@ -13,7 +13,7 @@ summary: 了解 `TIDB_INDEX_USAGE` INFORMATION_SCHEMA 表。
-从 v8.0.0 版本开始,TiDB 提供了 `TIDB_INDEX_USAGE` 表。你可以使用 `TIDB_INDEX_USAGE` 获取当前 TiDB 节点上所有索引的使用统计信息。默认情况下,TiDB 在执行 SQL 语句时会收集这些索引使用统计信息。你可以通过关闭 [`instance.tidb_enable_collect_execution_info`](https://docs.pingcap.com/tidb/v8.0/tidb-configuration-file#tidb_enable_collect_execution_info) 配置项或 [`tidb_enable_collect_execution_info`](/system-variables.md#tidb_enable_collect_execution_info) 系统变量来禁用此功能。
+从 v8.0.0 版本开始,TiDB 提供了 `TIDB_INDEX_USAGE` 表。你可以使用 `TIDB_INDEX_USAGE` 获取当前 TiDB 节点上所有索引的使用统计信息。默认情况下,TiDB 在执行 SQL 语句时会收集这些索引使用统计信息。你可以通过关闭 [`instance.tidb_enable_collect_execution_info`](https://docs.pingcap.com/tidb/stable/tidb-configuration-file#tidb_enable_collect_execution_info) 配置项或 [`tidb_enable_collect_execution_info`](/system-variables.md#tidb_enable_collect_execution_info) 系统变量来禁用此功能。
diff --git a/latest_translation_commit.json b/latest_translation_commit.json
index f8800f3514eb9..93f8aea2e8593 100644
--- a/latest_translation_commit.json
+++ b/latest_translation_commit.json
@@ -1,4 +1,4 @@
{
"target": "release-8.5",
- "sha": "992bd07e5f8fd1b88460ad98020632d12048c146"
+ "sha": "aa63093b1a90c6d816373829ab86a485b41d8071"
}
diff --git a/sql-statements/sql-statement-overview.md b/sql-statements/sql-statement-overview.md
index 8f1c24f8baef6..87c662643d1e5 100644
--- a/sql-statements/sql-statement-overview.md
+++ b/sql-statements/sql-statement-overview.md
@@ -306,7 +306,7 @@ TiDB 使用的 SQL 语句旨在遵循 ISO/IEC SQL 标准,并在必要时扩展
> **注意:**
>
-> [TiCDC](https://docs.pingcap.com/tidb/stable/ticdc-overview) & [TiDB Binlog](https://docs.pingcap.com/tidb/v8.3/tidb-binlog-overview) 是用于将 TiDB 数据复制到上游的工具,适用于 TiDB 自托管。大部分关于 TiCDC 和 TiDB Binlog 的 SQL 语句不适用于 TiDB Cloud。对于 TiDB Cloud,你可以使用 [Changefeed](/tidb-cloud/changefeed-overview.md) 功能,在 [TiDB Cloud 控制台](https://tidbcloud.com) 中实现数据流。|
+> [TiCDC](https://docs.pingcap.com/tidb/stable/ticdc-overview) 是用于将 TiDB 数据复制到上游的工具,适用于 TiDB 自托管。大部分关于 TiCDC 的 SQL 语句不适用于 TiDB Cloud。对于 TiDB Cloud,你可以使用 [Changefeed](/tidb-cloud/changefeed-overview.md) 功能,在 [TiDB Cloud 控制台](https://tidbcloud.com) 中实现数据流。
| SQL 语句 | 描述 |
|---------------|-------------|
diff --git a/tidb-cloud/backup-and-restore-concepts.md b/tidb-cloud/backup-and-restore-concepts.md
index 5aa9f00c543ca..175e0347dd8c7 100644
--- a/tidb-cloud/backup-and-restore-concepts.md
+++ b/tidb-cloud/backup-and-restore-concepts.md
@@ -14,6 +14,7 @@ TiDB Cloud 的备份与恢复功能旨在保护你的数据安全,并通过支
欲了解更多信息,请参见以下内容:
- [TiDB Cloud Starter 和 TiDB Cloud Essential 实例的自动备份](/tidb-cloud/backup-and-restore-serverless.md#automatic-backups)
+- [TiDB Cloud Premium 实例的自动备份](/tidb-cloud/premium/backup-and-restore-premium.md#automatic-backups)
- [TiDB Cloud Dedicated 集群的自动备份](/tidb-cloud/backup-and-restore.md#turn-on-auto-backup)
## 手动备份
diff --git a/tidb-cloud/changefeed-overview.md b/tidb-cloud/changefeed-overview.md
index dc7667ed2e48d..40dd80323ffa3 100644
--- a/tidb-cloud/changefeed-overview.md
+++ b/tidb-cloud/changefeed-overview.md
@@ -5,7 +5,16 @@ summary: TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到
# Changefeed
-TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到其他数据服务。目前,TiDB Cloud 支持将数据流式传输到 Apache Kafka、MySQL、TiDB Cloud 以及云存储。
+
+
+TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到其他数据服务。目前,TiDB Cloud Dedicated 支持将数据流式传输到 Apache Kafka、MySQL、TiDB Cloud 以及云存储。
+
+
+
+
+TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到其他数据服务。目前,TiDB Cloud Premium 支持将数据流式传输到 Apache Kafka 和 MySQL。
+
+
> **注意:**
>
@@ -32,11 +41,21 @@ TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到其他数
要创建 changefeed,请参考以下教程:
+
+
+- [同步到 Apache Kafka](/tidb-cloud/changefeed-sink-to-apache-kafka.md)
+- [同步到 MySQL](/tidb-cloud/changefeed-sink-to-mysql.md)
+
+
+
+
- [同步到 Apache Kafka](/tidb-cloud/changefeed-sink-to-apache-kafka.md)
- [同步到 MySQL](/tidb-cloud/changefeed-sink-to-mysql.md)
- [同步到 TiDB Cloud](/tidb-cloud/changefeed-sink-to-tidb-cloud.md)
- [同步到云存储](/tidb-cloud/changefeed-sink-to-cloud-storage.md)
+
+
## 查询 changefeed 容量
@@ -100,11 +119,21 @@ TiDB Cloud changefeed 帮助你将数据从 TiDB Cloud 流式传输到其他数
TiDB Cloud 会默认 populate changefeed 配置。你可以 edit 以下配置项:
+
+
+ - Apache Kafka sink:所有配置项。
+ - MySQL sink:**MySQL Connection**、**Table Filter** 和 **Event Filter**。
+
+
+
+
- Apache Kafka sink:所有配置项。
- MySQL sink:**MySQL Connection**、**Table Filter** 和 **Event Filter**。
- TiDB Cloud sink:**TiDB Cloud Connection**、**Table Filter** 和 **Event Filter**。
- 云存储 sink:**Storage Endpoint**、**Table Filter** 和 **Event Filter**。
+
+
4. edit 配置后,点击 **...** > **Resume** 以恢复对应的 changefeed。
## 复制 changefeed
diff --git a/tidb-cloud/create-tidb-cluster.md b/tidb-cloud/create-tidb-cluster.md
index cc1bcc4146bb1..026caa78cfdaa 100644
--- a/tidb-cloud/create-tidb-cluster.md
+++ b/tidb-cloud/create-tidb-cluster.md
@@ -40,7 +40,6 @@ summary: 了解如何创建你的 TiDB Cloud Dedicated 集群。
> **注意:**
>
- > - 目前,TiDB Cloud Dedicated 对 Azure 的支持处于公开预览阶段。
> - 如果你通过 [AWS Marketplace](https://aws.amazon.com/marketplace) 注册 TiDB Cloud,则云服务提供商为 AWS,且无法在 TiDB Cloud 中更改。
> - 如果你通过 [Azure Marketplace](https://azuremarketplace.microsoft.com) 注册 TiDB Cloud,则云服务提供商为 Azure Cloud,且无法在 TiDB Cloud 中更改。
> - 如果你通过 [Google Cloud Marketplace](https://console.cloud.google.com/marketplace) 注册 TiDB Cloud,则云服务提供商为 Google Cloud,且无法在 TiDB Cloud 中更改。
diff --git a/tidb-cloud/integrate-tidbcloud-with-vercel.md b/tidb-cloud/integrate-tidbcloud-with-vercel.md
index 34500c7dd9eca..bfead972d3ed8 100644
--- a/tidb-cloud/integrate-tidbcloud-with-vercel.md
+++ b/tidb-cloud/integrate-tidbcloud-with-vercel.md
@@ -71,7 +71,7 @@ summary: 了解如何将 TiDB Cloud 集群连接到 Vercel 项目。
> **注意:**
>
-> 此方法仅适用于 TiDB Cloud Starter 和 TiDB Cloud Essential 实例。如果你想连接 TiDB Cloud Dedicated 集群,请使用[手动方法](#connect-via-manually-setting-environment-variables)。
+> 此方法仅适用于 TiDB Cloud Starter 和 TiDB Cloud Essential 实例。如果你想连接 TiDB Cloud Dedicated 集群或 TiDB Cloud Premium 实例,请使用[手动方法](#connect-via-manually-setting-environment-variables)。
### 集成流程
diff --git a/tidb-cloud/migrate-from-mysql-using-data-migration.md b/tidb-cloud/migrate-from-mysql-using-data-migration.md
index e34a29e39fad9..de2f3a3f44fbb 100644
--- a/tidb-cloud/migrate-from-mysql-using-data-migration.md
+++ b/tidb-cloud/migrate-from-mysql-using-data-migration.md
@@ -6,7 +6,7 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
# 使用数据迁移将 MySQL 兼容数据库迁移到 TiDB Cloud
-本文档将指导你如何使用 [TiDB Cloud 控制台](https://tidbcloud.com/)中的数据迁移功能,将你的 MySQL 数据库(包括 Amazon Aurora MySQL、Amazon RDS、Azure Database for MySQL - Flexible Server、Google Cloud SQL for MySQL 或自建 MySQL 实例)迁移到 TiDB Cloud DedicatedTiDB Cloud Essential。
+本文档将指导你如何使用 [TiDB Cloud 控制台](https://tidbcloud.com/)中的数据迁移功能,将你的 MySQL 数据库(包括 Amazon Aurora MySQL、Amazon RDS、Azure Database for MySQL - Flexible Server、Google Cloud SQL for MySQL 或自建 MySQL 实例)迁移到 TiDB Cloud DedicatedTiDB Cloud EssentialTiDB Cloud Premium。
@@ -16,6 +16,14 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
+
+
+> **注意:**
+>
+> 目前,数据迁移功能在 TiDB Cloud Premium 上处于公测阶段。
+
+
+
该功能支持将现有 MySQL 数据迁移并持续复制 MySQL 兼容源数据库的实时变更(binlog)到 TiDB Cloud,无论源库和目标库是否在同一区域,都能保证数据一致性。该流程无需单独的导出和加载操作,极大减少了停机时间,并简化了从 MySQL 向更具扩展性的 TiDB Cloud 平台的迁移过程。
如果你只想将 MySQL 兼容数据库的实时 binlog 变更同步到 TiDB Cloud,请参见 [使用数据迁移将 MySQL 兼容数据库的增量数据迁移到 TiDB Cloud](/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md)。
@@ -34,6 +42,17 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
- Amazon Aurora MySQL writer 实例支持现有数据和增量数据迁移。Amazon Aurora MySQL reader 实例仅支持现有数据迁移,不支持增量数据迁移。
+
+
+- TiDB Cloud Premium 的数据迁移功能目前处于公测阶段。
+
+ - 你无法在迁移任务之间保存或复用源连接信息。
+ - 在公测期间,随着功能逐步完善,迁移任务可能还会受到其他限制。详情请联系 [TiDB Cloud Support](/tidb-cloud/tidb-cloud-support.md)。
+
+
+
+
+
### 最大迁移任务数
@@ -47,6 +66,8 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
+
+
### 被过滤和已删除的数据库
- 系统数据库会被自动过滤,即使你选择迁移所有数据库,也不会迁移到 TiDB Cloud。也就是说,`mysql`、`information_schema`、`performance_schema` 和 `sys` 这几个数据库不会通过该功能迁移。
@@ -57,8 +78,6 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
-
-
### 阿里云 RDS 的限制
使用阿里云 RDS 作为数据源时,每个表必须有显式主键。对于没有主键的表,RDS 会在 binlog 中追加隐藏主键,导致与源表结构不一致,进而导致迁移失败。
@@ -69,8 +88,6 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
为避免此问题,请在迁移前先在下游数据库中创建目标表。
-
-
### 现有数据迁移的限制
- 在现有数据迁移过程中,如果目标数据库已存在待迁移的表且存在主键冲突,冲突的行会被替换。
@@ -86,18 +103,30 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
+
+
+- 对于 TiDB Cloud Premium,同时支持逻辑模式(默认)和物理模式。逻辑模式会将 MySQL 源数据库的数据导出为 SQL 语句,并在目标 TiDB Cloud Premium 实例上执行,这会在加载期间消耗 Request Capacity Units (RCUs)。物理模式会在目标 TiDB Cloud Premium 实例上使用 `IMPORT INTO`,适用于你优先考虑加载吞吐量和成本效率的大数据集场景。
+- 使用物理模式且迁移任务启动后,请**不要**在 TiDB Cloud Premium 实例上启用 PITR(Point-in-time Recovery)或存在任何 changefeed。否则,迁移任务会停止。如果你需要启用 PITR 或存在 changefeed,请改用逻辑模式迁移数据。
+- 使用物理模式时,在现有数据迁移完成之前,你无法为 TiDB Cloud Premium 实例创建第二个迁移任务或导入任务。
+
+
+
### 增量数据迁移的限制
-- 在增量数据迁移过程中,如果目标数据库已存在待迁移表且有主键冲突,会报错并中断迁移。此时需确认 MySQL 源数据的准确性。如果数据无误,点击迁移任务的 **重启** 按钮,迁移任务会用 MySQL 源数据替换目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例中的冲突记录。
+
+
+- 在增量数据迁移过程中,如果目标数据库已存在待迁移表且有主键冲突,会报错并中断迁移。此时需确认 MySQL 源数据的准确性。如果数据无误,点击迁移任务的 **重启** 按钮,迁移任务会用 MySQL 源数据替换目标 TiDB Cloud Dedicated 集群中的冲突记录。
+
-- 在增量数据迁移(将实时变更迁移到你的 TiDB Cloud Essential 实例)过程中,如果迁移任务从异常中恢复,可能会开启 60 秒的安全模式。在安全模式下,`INSERT` 语句会以 `REPLACE` 方式迁移,`UPDATE` 语句会以 `DELETE` 和 `REPLACE` 方式迁移,然后将这些事务迁移到目标 TiDB Cloud Essential 实例,以确保异常期间的所有数据都能顺利迁移到目标 TiDB Cloud Essential 实例。在此场景下,如果 MySQL 源表没有主键或非空唯一索引,目标 TiDB Cloud Essential 实例中可能会出现重复数据,因为数据可能被重复插入到目标 TiDB Cloud Essential 实例中。
+- 在增量数据迁移过程中,如果目标数据库已存在待迁移表且有主键冲突,会报错并中断迁移。此时需确认 MySQL 源数据的准确性。如果数据无误,点击迁移任务的 **重启** 按钮,迁移任务会用 MySQL 源数据替换目标 TiDB Cloud Essential 实例中的冲突记录。
+- 在增量数据迁移(将实时变更迁移到你的 TiDB Cloud Essential 实例)过程中,如果迁移任务从异常错误中恢复,可能会进入 60 秒的安全模式。在安全模式下,TiDB Cloud 会将 `INSERT` 语句作为 `REPLACE` 迁移,将 `UPDATE` 语句作为 `DELETE` 和 `REPLACE` 迁移,然后将这些事务应用到目标 TiDB Cloud Essential 实例,以确保异常期间的所有数据都能安全到达目标端。对于没有主键或非空唯一索引的源表,这可能会导致目标 TiDB Cloud Essential 实例中出现重复行。
-- 在增量数据迁移(将实时变更迁移到你的 TiDB Cloud Dedicated 集群)过程中,如果迁移任务从异常中恢复,可能会开启 60 秒的安全模式。在安全模式下,`INSERT` 语句会以 `REPLACE` 方式迁移,`UPDATE` 语句会以 `DELETE` 和 `REPLACE` 方式迁移,然后将这些事务迁移到目标 TiDB Cloud Dedicated 集群,以确保异常期间的所有数据都能顺利迁移到目标 TiDB Cloud Dedicated 集群。在此场景下,如果 MySQL 源表没有主键或非空唯一索引,目标 TiDB Cloud Dedicated 集群中可能会出现重复数据,因为数据可能被重复插入到目标 TiDB Cloud Dedicated 集群中。
+- 在增量数据迁移(将实时变更迁移到你的 TiDB Cloud Dedicated 集群)过程中,如果迁移任务从异常错误中恢复,可能会进入 60 秒的安全模式。在安全模式下,TiDB Cloud 会将 `INSERT` 语句作为 `REPLACE` 迁移,将 `UPDATE` 语句作为 `DELETE` 和 `REPLACE` 迁移,然后将这些事务应用到目标 TiDB Cloud Dedicated 集群,以确保异常期间的所有数据都能安全到达目标端。对于没有主键或非空唯一索引的源表,这可能会导致目标 TiDB Cloud Dedicated 集群中出现重复行。
- 在以下场景中,如果迁移任务耗时超过 24 小时,请勿清理源数据库的 binary log,以便数据迁移能获取连续的 binary log 进行增量数据迁移:
@@ -106,9 +135,15 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
+
+
+- 在增量数据迁移(将实时变更迁移到你的 TiDB Cloud Premium 实例)过程中,如果迁移任务从异常错误中恢复,可能会进入 60 秒的安全模式。在安全模式下,TiDB Cloud 会将 `INSERT` 语句作为 `REPLACE` 迁移,将 `UPDATE` 语句作为 `DELETE` 和 `REPLACE` 迁移,然后将这些事务应用到目标 TiDB Cloud Premium 实例,以确保异常期间的所有数据都能安全到达目标端。对于没有主键或非空唯一索引的源表,这可能会导致目标 TiDB Cloud Premium 实例中出现重复行。
+
+
+
## 前置条件
-在迁移前,请检查你的数据源是否受支持,确保 MySQL 兼容数据库已开启 binary log,网络连通性正常,并为源数据库和目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例数据库授予所需权限。
+在迁移前,请检查你的数据源是否受支持,确保 MySQL 兼容数据库已开启 binary log,网络连通性正常,并为源数据库和目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例TiDB Cloud Premium 实例数据库授予所需权限。
### 确认数据源及版本受支持
@@ -141,9 +176,24 @@ aliases: ['/tidbcloud/migrate-data-into-tidb','/tidbcloud/migrate-incremental-da
+
+
+对于 TiDB Cloud Premium,数据迁移功能支持以下 MySQL 兼容源数据库,并且迁移任务向导中唯一可用的数据源类型是 **MySQL**。支持的连接方式请参见[确保网络连通性](#ensure-network-connectivity)。
+
+| 数据源 | 支持的版本 |
+|:-------------------------------------------------|:-------------------|
+| 自建 MySQL(本地或公有云) | 8.0, 5.7 |
+| Amazon Aurora MySQL | 8.0, 5.7 |
+| Amazon RDS MySQL | 8.0, 5.7 |
+| Azure Database for MySQL - Flexible Server | 8.0, 5.7 |
+| Google Cloud SQL for MySQL | 8.0, 5.7 |
+| 阿里云 RDS MySQL | 8.0, 5.7 |
+
+
+
### 在源 MySQL 兼容数据库中开启 binary log 以支持复制
-要通过 DM 持续复制源 MySQL 兼容数据库的增量变更到目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例,需要在源数据库中进行如下配置以开启 binary log:
+要通过 DM 持续复制源 MySQL 兼容数据库的增量变更到目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例TiDB Cloud Premium 实例,需要在源数据库中进行如下配置以开启 binary log:
| 配置项 | 要求的值 | 说明 |
|:---------------------------------|:---------------|:----|
@@ -255,7 +305,7 @@ SHOW VARIABLES WHERE Variable_name IN
### 确保网络连通性
-在创建迁移任务前,你需要规划并设置源 MySQL 实例、TiDB Cloud 数据迁移(DM)服务与目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例之间的网络连通性。
+在创建迁移任务前,你需要规划并设置源 MySQL 实例、TiDB Cloud 数据迁移(DM)服务与目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例TiDB Cloud Premium 实例之间的网络连通性。
@@ -277,6 +327,16 @@ SHOW VARIABLES WHERE Variable_name IN
| 公网 endpoint 或 IP 地址 | 支持所有 TiDB Cloud 支持的云厂商 | 快速概念验证迁移、测试或无法使用私有连接时 |
| Private link 或 private endpoint | 仅支持 AWS 和阿里云 | 生产环境工作负载,避免数据暴露在公网 |
+
+
+
+对于 TiDB Cloud Premium,可用的连接方式如下:
+
+| 连接方式 | 可用性 | 推荐场景 |
+|:---------------------|:-------------|:----------------|
+| 公网 endpoint 或 IP 地址 | 支持 TiDB Cloud Premium 支持的所有云厂商 | 快速概念验证迁移、测试或无法使用私有连接时 |
+| Private link | 仅支持 AWS | 生产环境工作负载,避免数据暴露在公网 |
+
请选择最适合你的云厂商、网络拓扑和安全需求的连接方式,并按照相应方式的设置说明进行配置。
@@ -335,23 +395,51 @@ SHOW VARIABLES WHERE Variable_name IN
为 MySQL 源数据库设置 AWS PrivateLink 和 Private Endpoint
-AWS 不支持直接通过 PrivateLink 访问 RDS 或 Aurora。因此,你需要创建 Network Load Balancer(NLB),并将其作为 endpoint service 关联到你的源 MySQL 实例。
+AWS 不支持直接通过 PrivateLink 访问 RDS 或 Aurora。因此,你需要创建 Network Load Balancer(NLB),将其作为 endpoint service 发布并关联到你的源 MySQL 实例,并授权 TiDB Cloud 的 AWS principal 使用该服务。
+
+1. 在 [Amazon EC2 控制台](https://console.aws.amazon.com/ec2/)中,创建一个内部 NLB,并配置一个监听端口为 `3306` 的 TCP listener,将流量转发到包含数据库私有 IP 的 target group。请配置以下关键设置:
-1. 在 [Amazon EC2 控制台](https://console.aws.amazon.com/ec2/)中,在与 RDS 或 Aurora writer 相同的子网创建 NLB。为 NLB 配置 TCP 监听端口 `3306`,并将流量转发到数据库 endpoint。
+ - **Scheme**:**Internal**。负载均衡器保留在你的 VPC 内;只有下一步中的 endpoint service 会将其暴露给 TiDB Cloud。
+ - **VPC**:选择与你的 RDS 或 Aurora 实例相同的 VPC。表单默认使用你账户的默认 VPC,而数据库通常不在该 VPC 中,因此继续前请先切换 **VPC** 下拉框。
+ - **Availability Zones**:至少选择 **两个可用区**中的子网。NLB 需要多可用区才能提供 endpoint service 可用性。即使你的 RDS 是单可用区部署,你仍需要在同一 VPC 的另一个可用区中选择第二个子网。
+ - **Listener port**:`3306`。向导默认值为 `80`。创建 listener 前请先修改。
+ - **Target group**:target type 选择 **IP addresses**,protocol 选择 **TCP**,port 选择 **3306**,并且位于与你的数据库相同的 VPC 中。你不能直接注册 RDS endpoint,因此需要注册数据库的私有 IP。
+
+ 如需查找数据库的私有 IP,请在 [Amazon EC2 控制台](https://console.aws.amazon.com/ec2/)中,点击左侧导航栏的 **Network Interfaces**,并按 **Description** = `RDSNetworkInterface` 和 **VPC** = 你的 VPC 进行筛选。使用匹配网卡中显示的 **Primary private IPv4 address**。
+
+ > **注意:**
+ >
+ > RDS 私有 IP 可能会在故障切换、维护或存储扩容时发生变化。对于生产部署,请参见 AWS Database Blog 中的 [Access Amazon RDS across VPCs using AWS PrivateLink and Network Load Balancer](https://aws.amazon.com/blogs/database/access-amazon-rds-across-vpcs-using-aws-privatelink-and-network-load-balancer/),了解自动轮换 IP 的方案。
详细说明请参见 AWS 官方文档:[Create a Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-network-load-balancer.html)。
-2. 在 [Amazon VPC 控制台](https://console.aws.amazon.com/vpc/)中,点击左侧导航栏的 **Endpoint Services**,创建 endpoint service。设置过程中,选择上一步创建的 NLB 作为后端负载均衡器,并启用 **Require acceptance for endpoint** 选项。创建完成后,复制服务名称(格式为 `com.amazonaws.vpce-svc-xxxxxxxxxxxxxxxxx`)以备后用。
+2. 在 [Amazon VPC 控制台](https://console.aws.amazon.com/vpc/)中,点击左侧导航栏的 **Endpoint Services**,然后点击 **Create endpoint service**。请配置以下设置:
+
+ - **Load balancer type**:选择 **Network**,并选择上一步创建的 NLB。如果 **Available load balancers** 列表为空,请等待 NLB 进入 **Active** 状态后,点击列表旁的刷新图标。
+ - **Acceptance required**:启用(默认值)。
+ - **Supported IP address types**:选择 **IPv4**。
+
+ 创建 endpoint service 后,复制服务名称以备后用。服务名称格式为 `com.amazonaws.vpce..vpce-svc-`,例如 `com.amazonaws.vpce.us-east-1.vpce-svc-0123456789abcdef0`。
详细说明请参见 AWS 官方文档:[Create an endpoint service](https://docs.aws.amazon.com/vpc/latest/privatelink/create-endpoint-service.html)。
-3. 可选:在同一 VPC 或 VNet 内的堡垒机或客户端上测试连通性:
+3. 授权 TiDB Cloud 的 AWS principal 使用你的 endpoint service。在 [Amazon VPC 控制台](https://console.aws.amazon.com/vpc/)的 endpoint service 详情页中,打开 **Allow principals** 标签页,点击 **Allow principals**,并添加以下 ARN:
+
+ ```text
+ arn:aws:iam::886436925895:root
+ ```
+
+ 如果不执行此步骤,TiDB Cloud 将无法创建连接到你的服务的 VPC endpoint,并且 TiDB Cloud 中的 **Create Private Endpoint for External Services** 对话框会一直卡住且不显示任何错误。
+
+ 详细说明请参见 AWS 官方文档:[Manage permissions](https://docs.aws.amazon.com/vpc/latest/privatelink/configure-endpoint-service.html#add-remove-permissions)。
+
+4. 可选:在开始迁移前,从同一 VPC 内的堡垒机或客户端测试连通性:
```shell
mysql -h -P 3306 -u -p --ssl-ca= -e "SELECT version();"
```
-4. 后续在 TiDB Cloud DM 配置 PrivateLink 连接时,你需要回到 AWS 控制台,批准 TiDB Cloud 到该 private endpoint 的连接请求。
+5. 后续在 TiDB Cloud DM 配置 PrivateLink 连接时,你需要回到 AWS 控制台,批准 TiDB Cloud 到该 private endpoint 的待处理连接请求。
@@ -386,6 +474,79 @@ Azure Database for MySQL - Flexible Server 原生支持 private endpoint。你
如需使用云厂商原生 private link 或 private endpoint,请为你的源 MySQL 实例创建 [Private Link Connection](/tidb-cloud/serverless-private-link-connection.md)。
+
+
+
+对于托管在 AWS 上的 TiDB Cloud Premium 实例,你可以使用 AWS PrivateLink 连接到源 MySQL 实例,而无需将数据库暴露到公网。你可以在同一个 TiDB Cloud Premium 实例上的多个 Data Migration 任务和 changefeed 之间复用同一个 private endpoint。
+
+
+ 为 MySQL 源数据库设置 AWS PrivateLink 和 Private Endpoint
+
+AWS 不支持直接通过 PrivateLink 访问 RDS 或 Aurora。因此,你需要创建 Network Load Balancer(NLB),将其作为 endpoint service 发布并关联到你的源 MySQL 实例,并授权 TiDB Cloud 的 AWS principal 使用该服务。
+
+1. 在 [Amazon EC2 控制台](https://console.aws.amazon.com/ec2/)中,创建一个内部 NLB,并配置一个监听端口为 `3306` 的 TCP listener,将流量转发到包含数据库私有 IP 的 target group。请配置以下关键设置:
+
+ - **Scheme**:**Internal**。负载均衡器保留在你的 VPC 内;只有下一步中的 endpoint service 会将其暴露给 TiDB Cloud。
+ - **VPC**:选择与你的 RDS 或 Aurora 实例相同的 VPC。表单默认使用你账户的默认 VPC,而数据库通常不在该 VPC 中,因此继续前请先切换 **VPC** 下拉框。
+ - **Availability Zones**:至少选择 **两个可用区**中的子网。NLB 需要多可用区才能提供 endpoint service 可用性。即使你的 RDS 是单可用区部署,你仍需要在同一 VPC 的另一个可用区中选择第二个子网。
+ - **Listener port**:`3306`。向导默认值为 `80`。创建 listener 前请先修改。
+ - **Target group**:target type 选择 **IP addresses**,protocol 选择 **TCP**,port 选择 **3306**,并且位于与你的数据库相同的 VPC 中。你不能直接注册 RDS endpoint,因此需要注册数据库的私有 IP。
+
+ 如需查找数据库的私有 IP,请在 [Amazon EC2 控制台](https://console.aws.amazon.com/ec2/)中,点击左侧导航栏的 **Network Interfaces**,并按 **Description** = `RDSNetworkInterface` 和 **VPC** = 你的 VPC 进行筛选。使用匹配网卡中显示的 **Primary private IPv4 address**。
+
+ > **注意:**
+ >
+ > RDS 私有 IP 可能会在故障切换、维护或存储扩容时发生变化。对于生产部署,请参见 AWS Database Blog 中的 [Access Amazon RDS across VPCs using AWS PrivateLink and Network Load Balancer](https://aws.amazon.com/blogs/database/access-amazon-rds-across-vpcs-using-aws-privatelink-and-network-load-balancer/),了解自动轮换 IP 的方案。
+
+ 详细说明请参见 AWS 官方文档:[Create a Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-network-load-balancer.html)。
+
+2. 在 [Amazon VPC 控制台](https://console.aws.amazon.com/vpc/)中,点击左侧导航栏的 **Endpoint Services**,然后点击 **Create endpoint service**。请配置以下设置:
+
+ - **Load balancer type**:选择 **Network**,并选择上一步创建的 NLB。如果 **Available load balancers** 列表为空,请等待 NLB 进入 **Active** 状态后,点击列表旁的刷新图标。
+ - **Acceptance required**:启用(默认值)。
+ - **Supported IP address types**:选择 **IPv4**。
+
+ 创建 endpoint service 后,复制服务名称以备后用。服务名称格式为 `com.amazonaws.vpce..vpce-svc-`,例如 `com.amazonaws.vpce.us-east-1.vpce-svc-0123456789abcdef0`。
+
+ 详细说明请参见 AWS 官方文档:[Create an endpoint service](https://docs.aws.amazon.com/vpc/latest/privatelink/create-endpoint-service.html)。
+
+3. 授权 TiDB Cloud 的 AWS principal 使用你的 endpoint service。在 [Amazon VPC 控制台](https://console.aws.amazon.com/vpc/)的 endpoint service 详情页中,打开 **Allow principals** 标签页,点击 **Allow principals**,并添加以下 ARN:
+
+ ```text
+ arn:aws:iam::886436925895:root
+ ```
+
+ 如果不执行此步骤,TiDB Cloud 将无法创建连接到你的服务的 VPC endpoint,并且 TiDB Cloud 中的 **Create Private Endpoint for External Services** 对话框会一直卡住且不显示任何错误。
+
+ 详细说明请参见 AWS 官方文档:[Manage permissions](https://docs.aws.amazon.com/vpc/latest/privatelink/configure-endpoint-service.html#add-remove-permissions)。
+
+4. 可选:在开始迁移前,从同一 VPC 内的堡垒机或客户端测试连通性:
+
+ ```shell
+ mysql -h -P 3306 -u -p --ssl-ca= -e "SELECT version();"
+ ```
+
+5. 后续在 TiDB Cloud DM 配置 PrivateLink 连接时,你需要回到 AWS 控制台,批准 TiDB Cloud 到该 private endpoint 的待处理连接请求。
+
+
+
+你可以在 TiDB Cloud Premium 实例的 **Networking** 页面创建 private endpoint,也可以在创建 Data Migration 任务时创建(参见[第 2 步](#step-2-configure-the-source-and-target-connections))。
+
+如需从 **Networking** 页面创建 private endpoint,请按以下步骤操作:
+
+1. 登录 [TiDB Cloud 控制台](https://tidbcloud.com/),进入你的 TiDB Cloud Premium 实例概览页。
+2. 在左侧导航栏中,点击 **Settings** > **Networking**。
+3. 在 **AWS Private Endpoint for External Services** 区域,点击 **Create Private Endpoint for External Services**。
+4. 在 **Create Private Endpoint for External Services** 对话框中,输入 private endpoint 名称,以及你在为 MySQL 源数据库设置 AWS PrivateLink 时复制的 **Endpoint Service Name**。
+
+ > **注意:**
+ >
+ > 点击 **Create** 前,请确保你已按照上文 **为 MySQL 源数据库设置 AWS PrivateLink 和 Private Endpoint** 中的步骤 3,在 AWS 中为你的 endpoint service 授权 TiDB Cloud 的 AWS principal(`arn:aws:iam::886436925895:root`)。否则,此对话框会一直卡住且不显示任何错误。
+
+5. 点击 **Create**。
+
+ private endpoint 变为可用后,你就可以在创建 Data Migration 任务时选择它。
+
@@ -399,7 +560,7 @@ Azure Database for MySQL - Flexible Server 原生支持 private endpoint。你
如果你的 MySQL 服务在 AWS VPC 中,请按以下步骤操作:
-1. [配置 VPC peering 连接](/tidb-cloud/set-up-vpc-peering-connections.md),将 MySQL 服务所在 VPC 与你的 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例 互通。
+1. [配置 VPC peering 连接](/tidb-cloud/set-up-vpc-peering-connections.md),将 MySQL 服务所在 VPC 与你的 {{{ .dedicated }}} 集群互通。
2. 修改 MySQL 服务关联的安全组的入站规则。
@@ -451,7 +612,7 @@ Azure Database for MySQL - Flexible Server 原生支持 private endpoint。你
### 授予迁移所需权限
-在开始迁移前,你需要在源数据库和目标数据库分别设置合适的数据库用户,并授予所需权限。这些权限用于让 TiDB Cloud DM 读取 MySQL 数据、复制变更并安全写入目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例。由于迁移涉及现有数据的全量导出和增量变更的 binlog 复制,迁移用户需要超出只读权限的特定权限。
+在开始迁移前,你需要在源数据库和目标数据库分别设置合适的数据库用户,并授予所需权限。这些权限用于让 TiDB Cloud DM 读取 MySQL 数据、复制变更并安全写入目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例TiDB Cloud Premium 实例。由于迁移涉及现有数据的全量导出和增量变更的 binlog 复制,迁移用户需要超出只读权限的特定权限。
#### 为源 MySQL 数据库的迁移用户授权
@@ -477,11 +638,11 @@ GRANT SELECT, RELOAD, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'dm_source
GRANT SELECT, RELOAD, LOCK TABLES, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'dm_source_user'@'%';
```
-#### 授予目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例所需权限 {#grant-required-privileges-in-the-target-dedicated-cluster-essential-instance}
+#### 授予目标 TiDB Cloud 资源所需权限 {#grant-required-privileges-in-the-target-tidb-cloud-resource}
-出于测试目的,你可以使用 {{{ .dedicated }}} 集群{{{ .essential }}} 实例的 `root` 账户。
+出于测试目的,你可以使用 {{{ .dedicated }}} 集群{{{ .essential }}} 实例{{{ .premium }}} 实例的 `root` 账户。
-对于生产工作负载,建议在目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例中为复制创建一个专用用户,并且仅授予必要的权限:
+对于生产工作负载,建议在目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例{{{ .premium }}} 实例中为复制创建一个专用用户,并且仅授予必要的权限:
| 权限 | 范围 | 用途 |
|:----------|:------|:--------|
@@ -495,7 +656,7 @@ GRANT SELECT, RELOAD, LOCK TABLES, REPLICATION SLAVE, REPLICATION CLIENT ON *.*
| `INDEX` | 表 | 创建和修改索引 |
| `CREATE VIEW` | 视图 | 创建迁移使用的视图 |
-例如,你可以在目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例中执行以下 `GRANT` 语句来授予相应权限:
+例如,你可以在目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例{{{ .premium }}} 实例中执行以下 `GRANT` 语句来授予相应权限:
```sql
GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_target_user'@'%';
@@ -505,7 +666,7 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
1. 登录 [TiDB Cloud 控制台](https://tidbcloud.com/),进入 [**My TiDB**](https://tidbcloud.com/tidbs) 页面。
-2. 点击目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例名称进入概览页,然后点击左侧导航栏的 **Data** > **Data Migration**。
+2. 点击目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例TiDB Cloud Premium 实例名称进入概览页,然后点击左侧导航栏的 **Data** > **Data Migration**。
3. 在 **Data Migration** 页面,点击右上角的 **Create Migration Job**。此时会进入 **Create Migration Job** 页面。
@@ -535,6 +696,14 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
- **Public**:适用于所有云厂商(推荐用于测试和概念验证迁移)。
- **Private Link**:仅适用于 AWS 和阿里云(推荐生产环境需要私有连接的场景)。
+
+
+
+ - **Connectivity method**:根据安全需求和云厂商选择数据源连接方式:
+
+ - **Public**:适用于 {{{ .premium }}} 支持的所有云厂商(推荐用于测试和概念验证迁移)。
+ - **Private Link**:仅适用于 AWS(推荐生产环境需要私有连接的场景)。
+
@@ -543,7 +712,7 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
- 选择 **Public IP** 或 **VPC Peering** 时,在 **Hostname or IP address** 字段填写数据源的主机名或 IP 地址。
- 选择 **Private Link** 时,填写以下信息:
- - **Endpoint Service Name**(数据源为 AWS 时可用):填写为 RDS 或 Aurora 实例创建的 VPC endpoint service 名称(格式:`com.amazonaws.vpce-svc-xxxxxxxxxxxxxxxxx`)。
+ - **Endpoint Service Name**(数据源为 AWS 时可用):填写为 RDS 或 Aurora 实例创建的 VPC endpoint service 名称(格式:`com.amazonaws.vpce..vpce-svc-`,例如 `com.amazonaws.vpce.us-east-1.vpce-svc-0123456789abcdef0`)。
- **Private Endpoint Resource ID**(数据源为 Azure 时可用):填写 MySQL Flexible Server 实例的 resource ID(格式:`/subscriptions//resourceGroups//providers/Microsoft.DBforMySQL/flexibleServers/`)。
@@ -554,6 +723,14 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
- 选择 **Public** 时,在 **Hostname or IP address** 字段填写数据源的主机名或 IP 地址。
- 选择 **Private Link** 时,选择你在 [Private link or private endpoint](#private-link-or-private-endpoint) 部分创建的 private link 连接。
+
+
+
+ - 根据所选 **Connectivity method**,进行如下操作:
+
+ - 选择 **Public** 时,在 **Hostname or IP address** 字段填写数据源的主机名或 IP 地址。
+ - 选择 **Private Link** 时,在 **Private Endpoint** 字段中选择一个已有的 private endpoint,或点击 **Create a Private Endpoint here** 创建一个。private endpoint 在 {{{ .premium }}} 实例的 **Networking** > **Private Endpoint for External Services** 下统一管理。你可以在多个 Data Migration 任务和 changefeed 之间复用同一个 private endpoint。有关设置详情,请参见 [Private link or private endpoint](#private-link-or-private-endpoint)。
+
- **Port**:数据源端口。
@@ -589,7 +766,7 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
3. 填写目标连接信息。
- - **User Name**:输入 TiDB Cloud 目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例的用户名。
+ - **User Name**:输入 TiDB Cloud 目标 TiDB Cloud Dedicated 集群TiDB Cloud Essential 实例{{{ .premium }}} 实例的用户名。
- **Password**:输入 TiDB Cloud 用户名的密码。
4. 点击 **Validate Connection and Next** 验证所填信息。
@@ -600,7 +777,7 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
- 如果使用 **Public IP** 或 **VPC Peering** 作为连接方式,需要将数据迁移服务的 IP 地址加入源数据库和防火墙(如有)的 IP 访问列表。
- 如果使用 **Private Link** 作为连接方式,会提示你接受 endpoint 请求:
- - AWS:进入 [AWS VPC 控制台](https://us-west-2.console.aws.amazon.com/vpc/home),点击 **Endpoint services**,接受来自 TiDB Cloud 的 endpoint 请求。
+ - AWS:进入 [AWS VPC 控制台](https://console.aws.amazon.com/vpc/home),切换到你创建 endpoint service 的 AWS 区域,点击 **Endpoint services**,接受来自 TiDB Cloud 的 endpoint 请求。
- Azure:进入 [Azure 门户](https://portal.azure.com),搜索你的 MySQL Flexible Server 名称,点击左侧导航栏的 **Setting** > **Networking**,在右侧 **Private endpoint** 区域批准 TiDB Cloud 的待处理连接请求。
@@ -609,6 +786,12 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
如果使用 Public IP,需要将数据迁移服务的 IP 地址加入源数据库和防火墙(如有)的 IP 访问列表。
+
+
+ - 如果使用 **Public** 作为连接方式,需要将数据迁移服务的 IP 地址加入源数据库和防火墙(如有)的 IP 访问列表。
+ - 如果使用 **Private Link** 且所选 private endpoint 尚未在 AWS 中被接受,请进入 [AWS VPC 控制台](https://console.aws.amazon.com/vpc/home),切换到你创建 endpoint service 的 AWS 区域,选择 **Endpoint services**,并接受来自 TiDB Cloud 的 endpoint 连接请求。
+
+
## 第 3 步:选择迁移任务类型
@@ -624,6 +807,12 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
+
+
+在 **Migration Type** 步骤,你可以选择 **Full + Incremental** 以迁移现有数据和增量数据,或选择 **Incremental only** 以仅迁移增量数据。
+
+
+
### 迁移现有数据和增量数据
@@ -638,8 +827,8 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
> **注意:**
>
-> - 使用物理模式时,现有数据迁移完成前,不能为该 {{{ .dedicated }}} 集群{{{ .essential }}} 实例 创建第二个迁移任务或导入任务。
-> - 使用物理模式且迁移任务已启动后,**不要**在该 {{{ .dedicated }}} 集群{{{ .essential }}} 实例 上启用 PITR(时间点恢复)或创建任何 changefeed,否则迁移任务会卡住。如需启用 PITR 或 changefeed,请使用逻辑模式迁移数据。
+> - 使用物理模式时,现有数据迁移完成前,不能为该 {{{ .dedicated }}} 集群创建第二个迁移任务或导入任务。
+> - 使用物理模式且迁移任务已启动后,**不要**在该 {{{ .dedicated }}} 集群上启用 PITR(时间点恢复)或创建任何 changefeed,否则迁移任务会停止。如需启用 PITR 或 changefeed,请使用逻辑模式迁移数据。
物理模式会尽可能快地导出 MySQL 源数据,不同规格对 MySQL 源数据库的 QPS 和 TPS 有不同影响。下表展示了各规格的性能回退情况。
@@ -659,6 +848,23 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
+
+
+如需一次性将数据迁移到 {{{ .premium }}},请选择 **Full + Incremental**,以保证源库和目标库数据一致性。
+
+对于 **现有数据迁移**,你可以使用 **物理模式** 或 **逻辑模式**:
+
+- 默认模式为 **逻辑模式**。该模式将 MySQL 源数据库数据导出为 SQL 语句并在目标 {{{ .premium }}} 实例上执行。在此模式下,迁移前目标表可以为空表或非空表,但性能低于物理模式。
+
+- 对于大数据集,你可以选择 **物理模式**。该模式在目标 {{{ .premium }}} 实例上使用 `IMPORT INTO` 以实现更快的数据导入。物理模式要求迁移前目标表为空。如果预检查检测到所选目标表非空,迁移任务会自动回退为逻辑模式。
+
+> **注意:**
+>
+> - 使用物理模式时,现有数据迁移完成前,不能为该 {{{ .premium }}} 实例创建第二个迁移任务或导入任务。
+> - 使用物理模式且迁移任务已启动后,**不要**在该 {{{ .premium }}} 实例上启用 PITR(时间点恢复)或创建任何 changefeed,否则迁移任务会停止。如需启用 PITR 或 changefeed,请使用逻辑模式迁移数据。
+
+
+
### 仅迁移现有数据
@@ -713,6 +919,22 @@ GRANT CREATE, SELECT, INSERT, UPDATE, DELETE, ALTER, DROP, INDEX ON *.* TO 'dm_t
+
+
+## 第 6 步:监控迁移进度
+
+创建迁移任务后,你可以在 **Migration Job Details** 页面查看迁移进度。迁移进度显示在 **Stage and Status** 区域。
+
+迁移任务运行时,你可以暂停或删除该任务。如果迁移任务失败,在解决问题后可以恢复该任务。你可以在任何状态下删除迁移任务。
+
+如果在迁移过程中遇到问题,请参见[迁移错误与解决方法](/tidb-cloud/tidb-cloud-dm-precheck-and-troubleshooting.md#migration-errors-and-solutions)。
+
+> **注意:**
+>
+> {{{ .premium }}} 会自动管理迁移任务资源。worker pool 会根据活跃迁移任务的数量自动扩缩容,因此你无需选择规格或手动扩缩容。
+
+
+
## 第 6 步:选择规格并启动迁移
@@ -755,7 +977,7 @@ TiDB Cloud Dedicated 支持根据不同场景的性能和成本需求,动态
1. 登录 [TiDB Cloud 控制台](https://tidbcloud.com/),进入 [**My TiDB**](https://tidbcloud.com/tidbs) 页面。
-2. 点击目标 {{{ .dedicated }}} 集群{{{ .essential }}} 实例 的名称进入概览页,然后点击左侧导航栏的 **Data** > **Data Migration**。
+2. 点击目标 {{{ .dedicated }}} 集群的名称进入概览页,然后点击左侧导航栏的 **Data** > **Data Migration**。
3. 在 **Data Migration** 页面,找到要扩展的迁移任务,在 **Action** 列点击 **...** > **Scale Up/Down**。
diff --git a/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md b/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md
index 52d50072c71ab..4f9e0b8fe9aed 100644
--- a/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md
+++ b/tidb-cloud/migrate-incremental-data-from-mysql-using-data-migration.md
@@ -5,7 +5,7 @@ summary: 了解如何使用 Data Migration,将托管于 Amazon Aurora MySQL、
# 仅迁移 MySQL 兼容数据库的增量数据到 TiDB Cloud(使用 Data Migration)
-本文档介绍如何使用 TiDB Cloud 控制台的 Data Migration 功能,将云服务商(Amazon Aurora MySQL、Amazon Relational Database Service (RDS)、Google Cloud SQL for MySQL、Azure Database for MySQL、阿里云 RDS)或自建源数据库中的增量数据,迁移到 TiDB Cloud DedicatedTiDB Cloud Essential。
+本文档介绍如何使用 TiDB Cloud 控制台的 Data Migration 功能,将云服务商(Amazon Aurora MySQL、Amazon Relational Database Service (RDS)、Google Cloud SQL for MySQL、Azure Database for MySQL、阿里云 RDS)或自建源数据库中的增量数据,迁移到 TiDB Cloud DedicatedTiDB Cloud EssentialTiDB Cloud Premium。
@@ -15,6 +15,14 @@ summary: 了解如何使用 Data Migration,将托管于 Amazon Aurora MySQL、
+
+
+> **注意:**
+>
+> 目前,Data Migration 功能在 TiDB Cloud Premium 上处于 public preview 阶段。
+
+
+
如需迁移已有数据或同时迁移已有数据和增量数据,请参见 [使用 Data Migration 将 MySQL 兼容数据库迁移到 TiDB Cloud](/tidb-cloud/migrate-from-mysql-using-data-migration.md)。
## 限制
@@ -148,7 +156,7 @@ SHOW VARIABLES LIKE 'binlog_row_image';
>
> 如果你属于多个 organization,请先使用左上角的下拉框切换到目标 organization。
-2. 点击目标 {{{ .dedicated }}} cluster{{{ .essential }}} instance 的名称,进入其概览页面,然后在左侧导航栏点击 **Data** > **Data Migration**。
+2. 点击目标 {{{ .dedicated }}} cluster{{{ .essential }}} instance{{{ .premium }}} instance 的名称,进入其概览页面,然后在左侧导航栏点击 **Data** > **Data Migration**。
3. 在 **Data Migration** 页面,点击右上角的 **Create Migration Job**。此时会进入 **Create Migration Job** 页面。
@@ -162,7 +170,7 @@ SHOW VARIABLES LIKE 'binlog_row_image';
- **Data source**:数据源类型。
- **Region**:数据源的 Region,仅云数据库必填。
- - **Connectivity method**:数据源的连接方法。目前,你可以根据连接方法选择 public IP、VPC Peering 或 Private Link。你可以根据连接方法选择 public IP 或 Private Link。
+ - **Connectivity method**:数据源的连接方法。目前,你可以根据连接方法选择 public IP、VPC Peering 或 Private Link。你可以根据连接方法选择 public IP 或 Private Link。你可以根据连接方法选择 Public 或 Private Link(仅 AWS)。
@@ -175,6 +183,12 @@ SHOW VARIABLES LIKE 'binlog_row_image';
- **Hostname or IP address**(适用于 public IP):数据源的主机名或 IP 地址。
- **Private Link Connection**(适用于 Private Link):你在 [Private Link Connections](/tidb-cloud/serverless-private-link-connection.md) 部分创建的 private link 连接。
+
+
+
+ - **Hostname or IP address**(适用于 Public):数据源的主机名或 IP 地址。
+ - **Private Endpoint**(适用于 Private Link):你为 {{{ .premium }}} instance 在 **Networking** > **Private Endpoint for External Services** 中创建的 private endpoint。你也可以点击 **Create a Private Endpoint here** 进行创建。有关设置详情,请参见 Data Migration 指南中的 [Private link or private endpoint](/tidb-cloud/migrate-from-mysql-using-data-migration.md#private-link-or-private-endpoint) 部分。
+
- **Port**:数据源的端口。
@@ -187,8 +201,8 @@ SHOW VARIABLES LIKE 'binlog_row_image';
3. 填写目标连接信息。
- - **Username**:输入 TiDB Cloud 目标 {{{ .dedicated }}} cluster{{{ .essential }}} instance 的用户名。
- - **Password**:输入 TiDB Cloud 用户名的密码。
+ - **Username**:输入 TiDB Cloud 目标 {{{ .dedicated }}} cluster{{{ .essential }}} instance{{{ .premium }}} instance 的用户名。
+ - **Password**:输入 TiDB Cloud 用户名的密码。
4. 点击 **Validate Connection and Next** 验证你填写的信息。
@@ -197,7 +211,7 @@ SHOW VARIABLES LIKE 'binlog_row_image';
- 如果你使用 Public IP 或 VPC Peering,需要将 Data Migration service 的 IP 地址添加到源数据库和防火墙(如有)的 IP Access List。
- - 如果你使用 AWS Private Link,系统会提示你接受 endpoint request。请前往 [AWS VPC 控制台](https://us-west-2.console.aws.amazon.com/vpc/home),点击 **Endpoint services** 接受 endpoint request。
+ - 如果你使用 AWS Private Link,系统会提示你接受 endpoint request。请在 [AWS VPC 控制台](https://console.aws.amazon.com/vpc/home) 中切换到你创建 endpoint service 的 AWS Region,然后点击 **Endpoint services** 接受 endpoint request。
@@ -206,6 +220,13 @@ SHOW VARIABLES LIKE 'binlog_row_image';
+
+
+ - 如果你使用 **Public** 作为连接方法,需要将 Data Migration service 的 IP 地址添加到源数据库和防火墙(如有)的 IP Access List。
+ - 如果你使用 **Private Link**,且所选 private endpoint 尚未在 AWS 中被接受,请在 [AWS VPC 控制台](https://console.aws.amazon.com/vpc/home) 中切换到你创建 endpoint service 的 AWS Region,点击 **Endpoint services**,并接受来自 TiDB Cloud 的 endpoint connection request。
+
+
+
## 步骤 3:选择迁移任务类型
如需仅将源数据库的增量数据迁移到 TiDB Cloud,请选择 **Incremental data migration**,不要选择 **Existing data migration**。这样,迁移任务只会迁移源数据库的实时变更到 TiDB Cloud。
diff --git a/tidb-cloud/premium/built-in-monitoring-premium.md b/tidb-cloud/premium/built-in-monitoring-premium.md
index edb5405b8db22..d7042abc85c2e 100644
--- a/tidb-cloud/premium/built-in-monitoring-premium.md
+++ b/tidb-cloud/premium/built-in-monitoring-premium.md
@@ -31,7 +31,7 @@ TiDB Cloud 会在 **Metrics** 页面收集并展示你的 {{{ .premium }}} 实
| Metric name | Labels | Description |
| :------------| :------| :-------------------------------------------- |
-| Request Units per Second | Total RU per second | Request Unit (RU) 是用于跟踪查询或事务资源消耗的计量单位。除了你运行的查询之外,后台活动也可能消耗 request units,因此当 QPS 为 0 时,每秒 request units 也可能不为 0。 |
+| Request Units per Second | Total RU per second, AVG RU/s | Request Unit (RU) 是用于跟踪查询或事务资源消耗的计量单位。`Total RU per second` 显示每秒实时 RU 消耗。`AVG RU/s` 显示所选时间范围内每秒平均 RU 消耗,帮助你更好地了解资源消耗情况。除了你运行的查询之外,后台活动也可能消耗 RU。因此,当 QPS 为 0 时,每秒 RU 消耗仍可能大于 0。 |
| Used Storage Size | {type} | 行存的大小和列存的大小。 |
| Query Per Second | All, {SQL type} | 每秒执行的 SQL 语句数量,按 SQL 类型统计,例如 `SELECT`、`INSERT` 和 `UPDATE`。 |
| Query Duration | avg, avg-{SQL type}, 99, 99-{SQL type} | 从 TiDB 接收到来自客户端的请求,到 TiDB 执行该请求并将结果返回给客户端的持续时间。 |
diff --git a/tidb-cloud/releases/tidb-cloud-release-notes.md b/tidb-cloud/releases/tidb-cloud-release-notes.md
index ac84627a6b0da..d16567f7a4225 100644
--- a/tidb-cloud/releases/tidb-cloud-release-notes.md
+++ b/tidb-cloud/releases/tidb-cloud-release-notes.md
@@ -8,6 +8,24 @@ aliases: ['/zh/tidbcloud/supported-tidb-versions','/zh/tidbcloud/release-notes']
本页面列出了 [TiDB Cloud](https://www.pingcap.com/tidb-cloud/) 在 2026 年的发布说明。
+## 2026 年 5 月 12 日
+
+**常规变更**
+
+- **TiDB Cloud Premium**
+
+ - 在 [TiDB Cloud Premium](https://docs.pingcap.com/tidbcloud/premium/?plan=premium) 的 **Metrics** 页面中新增 `AVG RU/s` 指标。
+
+ `AVG RU/s` 显示在所选时间范围内每秒消耗的 RU 平均数量,帮助你更好地了解资源消耗情况。
+
+- **TiDB Cloud Dedicated**
+
+ - [TiDB Cloud Dedicated](/tidb-cloud/select-cluster-tier.md#tidb-cloud-dedicated) 现已在 Microsoft Azure 的 **Japan East** 和 **East US 2** 区域正式发布(GA)。
+
+ 它提供跨三个可用区的高可用性、99.99% 正常运行时间 SLA、由 TiFlash 提供支持的完整 HTAP、计算与存储的独立扩缩容、由 PingCAP SRE 提供的全托管运维、无缝数据导入与迁移、带 PITR 的持续备份、企业级安全性以及集成可观测性。它还支持批量数据导入、从 MySQL 和其他来源迁移,以及向下游系统进行实时复制。如果你使用 [Azure Marketplace](https://azuremarketplace.microsoft.com/),还可以通过 Azure Marketplace 订阅 TiDB Cloud Dedicated。
+
+ 更多信息,请参见 [From Preview to Production: TiDB Cloud Dedicated on Microsoft Azure is Now Generally Available](https://www.pingcap.com/blog/tidb-cloud-dedicated-ga-microsoft-azure/)。
+
## 2026 年 4 月 28 日
**常规变更**
diff --git a/tidb-cloud/scalability-concepts.md b/tidb-cloud/scalability-concepts.md
index 199211747065d..b917e9ade1668 100644
--- a/tidb-cloud/scalability-concepts.md
+++ b/tidb-cloud/scalability-concepts.md
@@ -9,6 +9,7 @@ TiDB Cloud 提供多种部署选项,具备灵活的可扩展性,以满足不
- [TiDB Cloud Starter](/tidb-cloud/select-cluster-tier.md#starter) 非常适合原型开发、开发环境和早期阶段的工作负载。它为你提供了一种简化且具性价比的方式来快速上手 TiDB Cloud,并内置了自动扩缩容功能。
- [TiDB Cloud Essential](/tidb-cloud/select-cluster-tier.md#essential) 适用于需要更强可扩展性和在流量或数据量增长时依然保持可预测性能的生产级工作负载。
+- [TiDB Cloud Premium](/tidb-cloud/select-cluster-tier.md#premium) 专为需要无限实时扩展能力的关键业务而设计。它提供工作负载感知的自动扩缩容和全面的企业级能力。
- TiDB Cloud Dedicated 允许你分别调整计算和存储资源,以适应数据量或工作负载的变化。TiDB Cloud Dedicated 可以在不中断服务的情况下进行扩缩容。这种灵活性使组织能够在保持高性能和高可用性的同时,优化基础设施成本。
> **Tip:**
diff --git a/tidb-cloud/set-up-private-endpoint-connections-serverless.md b/tidb-cloud/set-up-private-endpoint-connections-serverless.md
index d59ed6b014d6e..ae1d8832491c6 100644
--- a/tidb-cloud/set-up-private-endpoint-connections-serverless.md
+++ b/tidb-cloud/set-up-private-endpoint-connections-serverless.md
@@ -53,7 +53,7 @@ TiDB Cloud 支持通过 [AWS PrivateLink](https://aws.amazon.com/privatelink/?pr
> **注意:**
>
- > 每个 AWS 区域只需创建一个私有端点,该端点可供位于同一区域的所有 {{{ .starter }}} 或 {{{ .essential }}} 实例共享。
+ > 对于 AWS 区域中的每个 VPC,你只需创建一个私有端点。该端点可供该 AWS 区域中同一 VPC 内的所有 {{{ .starter }}} 或 {{{ .essential }}} 实例使用,但不能跨 VPC 共享。
### Step 2. 创建 AWS interface 端点
@@ -141,7 +141,7 @@ aws ec2 create-vpc-endpoint --vpc-id ${your_vpc_id} --region ${region_id} --serv
>
> 如果你无法连接到 {{{ .starter }}} 或 Essential 实例,原因可能是 AWS 中 VPC 端点的安全组设置不正确。请参见[此常见问题](#troubleshooting)获取解决方案。
>
-> 创建 VPC 端点时,如果遇到错误 `private-dns-enabled cannot be set because there is already a conflicting DNS domain for gatewayXX-privatelink.XX.prod.aws.tidbcloud.com in the VPC vpc-XXXXX`,说明已经创建了一个私有端点,无需再创建新的端点。
+> 创建 VPC 端点时,如果遇到错误 `private-dns-enabled cannot be set because there is already a conflicting DNS domain for gatewayXX-privatelink.XX.prod.aws.tidbcloud.com in the VPC vpc-XXXXX`,说明该 VPC 中已存在一个私有端点。对于相同的私有 DNS 名称,你无需再创建另一个端点。
## 故障排查
diff --git a/tidb-cloud/sql-concepts.md b/tidb-cloud/sql-concepts.md
index dab5582e499a1..bb713d2a07ff7 100644
--- a/tidb-cloud/sql-concepts.md
+++ b/tidb-cloud/sql-concepts.md
@@ -5,7 +5,7 @@ summary: 了解 TiDB 的 SQL 概念。
# SQL
-TiDB 高度兼容 MySQL 协议以及 MySQL 5.7 和 MySQL 8.0 的常用功能和语法。MySQL 的生态工具(PHPMyAdmin、Navicat、MySQL Workbench、DBeaver 和[更多](https://docs.pingcap.com/tidb/v7.2/dev-guide-third-party-support#gui))和 MySQL 客户端都可以用于 TiDB。
+TiDB 高度兼容 MySQL 协议以及 MySQL 5.7 和 MySQL 8.0 的常用功能和语法。MySQL 的生态工具(PHPMyAdmin、Navicat、MySQL Workbench、DBeaver 和[更多](/develop/dev-guide-third-party-support.md#gui))和 MySQL 客户端都可以用于 TiDB。
然而,TiDB 不支持 MySQL 的某些功能。这可能是因为现在有更好的方法来解决问题(比如使用 JSON 而不是 XML 函数),或者是当前需求相对于所需努力较小(比如存储过程和函数)。此外,某些功能在分布式系统中可能难以实现。更多信息,请参见 [MySQL 兼容性](/mysql-compatibility.md)。
diff --git a/tidb-cloud/tidb-cloud-faq.md b/tidb-cloud/tidb-cloud-faq.md
index 74b81d1257335..302bb38c16ebe 100644
--- a/tidb-cloud/tidb-cloud-faq.md
+++ b/tidb-cloud/tidb-cloud-faq.md
@@ -66,6 +66,8 @@ BETA 表示 TiDB Cloud 某项功能或服务在正式发布(GA)前的公开
- [TiDB Cloud 简介](/tidb-cloud/tidb-cloud-intro.md)
- [快速上手](/tidb-cloud/tidb-cloud-quickstart.md)
- [创建 TiDB Cloud Starter 或 Essential 实例](/tidb-cloud/create-tidb-cluster-serverless.md)
+- [创建 TiDB Cloud Premium 实例](/tidb-cloud/premium/create-tidb-instance-premium.md)
+- [创建 TiDB Cloud Dedicated 集群](/tidb-cloud/create-tidb-cluster.md)
### 删除集群时,`XXX's Org/default project/Cluster0` 指的是什么?
@@ -154,7 +156,7 @@ TiDB Cloud 支持 TLS 1.2 或 TLS 1.3。
### 我的 TiDB Cloud 资源安全吗? {#is-my-tidb-cloud-resource-secure}
-在 TiDB Cloud 中,你可以根据需求选择 TiDB Cloud Dedicated 集群、TiDB Cloud Starter 实例或 TiDB Cloud Essential 实例。
+在 TiDB Cloud 中,你可以根据需求选择 TiDB Cloud Dedicated 集群、TiDB Cloud Premium 实例、TiDB Cloud Starter 实例或 TiDB Cloud Essential 实例。
对于 TiDB Cloud Dedicated 集群,TiDB Cloud 通过以下措施保障集群安全:
diff --git a/tidb-cloud/tidb-cloud-glossary.md b/tidb-cloud/tidb-cloud-glossary.md
index 3df290df82f24..e66cd464f1c9f 100644
--- a/tidb-cloud/tidb-cloud-glossary.md
+++ b/tidb-cloud/tidb-cloud-glossary.md
@@ -165,7 +165,7 @@ TiDB Cloud 以 TiCDC Replication Capacity Unit(RCU)衡量 [changefeeds](/tid
对于 {{{ .essential }}} 和 {{{ .premium }}},Request Capacity Unit(RCU)是用于表示 {{{ .essential }}} 或 {{{ .premium }}} 实例预配置计算能力的单位。1 个 RCU 提供固定数量的计算资源,可处理一定数量的 RU 每秒。你预配置的 RCU 数量决定了实例的基线性能和吞吐能力。不过,{{{ .essential }}} 和 {{{ .premium }}} 的 RCU 管理方式有所不同:
- {{{ .essential }}} 会根据你的工作负载自动预配置 RCU。随着 QPS 增加,TiDB Cloud 会动态扩容已预配置的 RCU 以维持性能。更多信息,参见 [{{{ .essential }}} Pricing Details](https://www.pingcap.com/tidb-cloud-essential-pricing-details/)。
-- {{{ .premium }}} 允许你为工作负载指定最大 RCU 数量(`RCU_max`)。TiDB Cloud 会根据实时需求,在 `0.25 * RCU_max` 到 `RCU_max` 的范围内自动扩缩容。更多信息,参见 [{{{ .premium }}} 中的请求单位与容量](/tidb-cloud/architecture-concepts.md#request-units-and-capacity-in-premium)。
+- {{{ .premium }}} 允许你为工作负载指定最大 RCU 数量(`RCU_max`)。TiDB Cloud 会根据实时需求,在 `0.25 * RCU_max` 到 `RCU_max` 的范围内自动扩缩容。更多信息,参见 [{{{ .premium }}} 中的请求单位与容量](https://docs.pingcap.com/tidbcloud/architecture-concepts/?plan=premium#request-units-and-capacity-in-premium)。
### Request Unit (RU)
@@ -173,7 +173,7 @@ TiDB Cloud 以 TiCDC Replication Capacity Unit(RCU)衡量 [changefeeds](/tid
- {{{ .starter }}} 按消耗的 RU 总数计费。更多信息,参见 [{{{ .starter }}} Pricing Details](https://www.pingcap.com/tidb-cloud-starter-pricing-details/)。
- {{{ .essential }}} 按预配置的 [Request Capacity Unit (RCU)](#request-capacity-unit-rcu) 数量计费。1 个 RCU 提供固定数量的计算资源,可处理一定数量的每秒 RU。更多信息,参见 [{{{ .essential }}} Pricing Details](https://www.pingcap.com/tidb-cloud-essential-pricing-details/)。
-- {{{ .premium }}} 按工作负载实际消耗的 Request Capacity Unit(RCU)计费。TiDB Cloud 会每分钟计算一次平均每秒 RU,并将该平均值用作计费的 [Request Capacity Units (RCUs)](#request-capacity-unit-rcu)。更多信息,参见 [{{{ .premium }}} 中的请求单位与容量](/tidb-cloud/architecture-concepts.md#request-units-and-capacity-in-premium)。
+- {{{ .premium }}} 按工作负载实际消耗的 Request Capacity Unit(RCU)计费。TiDB Cloud 会每分钟计算一次平均每秒 RU,并将该平均值用作计费的 [Request Capacity Units (RCUs)](#request-capacity-unit-rcu)。更多信息,参见 [{{{ .premium }}} 中的请求单位与容量](https://docs.pingcap.com/tidbcloud/architecture-concepts/?plan=premium#request-units-and-capacity-in-premium)。
对于 TiDB Cloud Dedicated 和 TiDB Self-Managed,Request Unit(RU)是表示系统资源消耗的抽象单位,目前包括 CPU、IOPS 和 IO 带宽等指标。它被资源控制功能用于限制、隔离和管理数据库请求消耗的资源,**不用于计费**。更多信息,参见 [Use Resource Control to Achieve Resource Group Limitation and Flow Control](/tidb-resource-control-ru-groups.md)。
diff --git a/tidb-cloud/tidb-cloud-intro.md b/tidb-cloud/tidb-cloud-intro.md
index ae05cb67215e5..c2b3e18d2947c 100644
--- a/tidb-cloud/tidb-cloud-intro.md
+++ b/tidb-cloud/tidb-cloud-intro.md
@@ -122,7 +122,7 @@ TiDB Cloud 提供以下部署选项:
TiDB Cloud Dedicated 面向关键业务,提供跨多个可用区的高可用、横向扩展和完整的 HTAP 能力。
- 目前,TiDB Cloud Dedicated 已在 AWS 和 Google Cloud 上正式发布,并在 Azure 上公测。更多信息,参见 [TiDB Cloud Dedicated](https://www.pingcap.com/tidb-cloud-dedicated)。
+ 目前,TiDB Cloud Dedicated 已在 AWS、Azure 和 Google Cloud 上正式发布。更多信息,参见 [TiDB Cloud Dedicated](https://www.pingcap.com/tidb-cloud-dedicated)。
## 架构
diff --git a/tidb-cloud/tidb-cloud-sql-tuning-overview.md b/tidb-cloud/tidb-cloud-sql-tuning-overview.md
index 078828343524d..c58673dc828b7 100644
--- a/tidb-cloud/tidb-cloud-sql-tuning-overview.md
+++ b/tidb-cloud/tidb-cloud-sql-tuning-overview.md
@@ -101,6 +101,8 @@ TiDB Cloud 控制台在[**诊断**](/tidb-cloud/tune-performance.md#view-the-dia
有关如何定位和解决事务冲突的更多信息,请参见[排查锁冲突问题](https://docs.pingcap.com/tidb/stable/troubleshoot-lock-conflicts#排查锁冲突问题)。
+
+
### 热点问题
你可以使用 [Key Visualizer](/tidb-cloud/tune-performance.md#key-visualizer) 分析热点问题。
@@ -123,3 +125,5 @@ TiDB Cloud 控制台在[**诊断**](/tidb-cloud/tune-performance.md#view-the-dia
在 X 轴和 Y 轴明暗交替的情况下,都需要解决读写压力。
有关 SQL 性能优化的更多信息,请参见 SQL 常见问题中的 [SQL 优化](https://docs.pingcap.com/tidb/stable/sql-faq#sql-优化)。
+
+
diff --git a/tiflash/tiflash-pipeline-model.md b/tiflash/tiflash-pipeline-model.md
index 8ef1143aaa198..a49a5f14012b8 100644
--- a/tiflash/tiflash-pipeline-model.md
+++ b/tiflash/tiflash-pipeline-model.md
@@ -9,7 +9,7 @@ summary: 了解 TiFlash Pipeline Execution Model。
从 v7.2.0 版本开始,TiFlash 支持一种新的执行模型,即 pipeline 执行模型。
-- 对于 v7.2.0 和 v7.3.0 版本:pipeline 执行模型处于实验阶段,由 [`tidb_enable_tiflash_pipeline_model`](https://docs.pingcap.com/tidb/v7.2/system-variables#tidb_enable_tiflash_pipeline_model-introduced-since-v720) 控制。
+- 对于 v7.2.0 和 v7.3.0 版本:pipeline 执行模型处于实验阶段,由 [`tidb_enable_tiflash_pipeline_model`](https://docs-archive.pingcap.com/tidb/v7.2/system-variables/#tidb_enable_tiflash_pipeline_model-new-in-v720) 控制。
- 对于 v7.4.0 及之后的版本:pipeline 执行模型正式发布。它是 TiFlash 的一个内部特性,与 TiFlash 资源控制紧密集成。当你启用 TiFlash 资源控制时,pipeline 执行模型会自动启用。关于如何使用 TiFlash 资源控制的详细信息,请参考 [Use Resource Control to Achieve Resource Group Limitation and Flow Control](/tidb-resource-control-ru-groups.md#parameters-for-resource-control)。此外,从 v7.4.0 开始,系统变量 `tidb_enable_tiflash_pipeline_model` 被废弃。
受到论文 [Morsel-Driven Parallelism: A NUMA-Aware Query Evaluation Framework for the Many-Core Age](https://dl.acm.org/doi/10.1145/2588555.2610507) 的启发,TiFlash 的 pipeline 执行模型提供了一种细粒度的任务调度模型,这与传统的线程调度模型不同。它减少了操作系统线程的应用和调度开销,并提供了细粒度的调度机制。