跳到主要内容

数据迁移到 Databend

请选择源数据库与迁移需求,找到最适合的 Databend 迁移方案。

MySQL → Databend

Databend 支持两类主要迁移方式:

迁移方式推荐工具支持的 MySQL 版本
批量加载db-archiver所有 MySQL 版本
以 CDC 实时同步Debezium所有 MySQL 版本

何时选择实时迁移(CDC)

推荐:实时迁移优先选择 Debezium

  • 需要持续同步,延迟尽量低
  • 需要捕获所有数据变更(插入、更新、删除)
工具能力最适合场景适用情形
DebeziumCDC、全量以极低延迟捕获行级变更需要完整的 INSERT/UPDATE/DELETE CDC;希望基于 binlog 的复制以降低源库压力
Flink CDCCDC、全量、转换复杂 ETL + 实时转换迁移过程中需要过滤/转换;需要可扩展的计算框架;希望使用 SQL 完成转换
Kafka ConnectCDC、增量、全量已有 Kafka 基础设施已经使用 Kafka;需要简单配置;可以依赖时间戳或自增字段做增量同步

何时选择批量迁移

推荐:批量迁移优先选择 db-archiver

  • 需要一次性或定期批量迁移
  • 需要迁移大量历史数据
  • 对实时性没有要求
工具能力最适合场景适用情形
db-archiver全量、增量高效归档历史数据数据按时间分区;需要归档历史;希望轻量化工具
DataX全量、增量大规模数据高速迁移需要高吞吐;希望并行处理;需要成熟广泛使用的工具
Addax全量、增量DataX 增强版,更高性能相比 DataX 需要更好的错误处理;想要监控增强;希望使用更新的功能

Snowflake → Databend

Snowflake 迁移 Databend 需要三步:

  1. 为 Amazon S3 配置 Snowflake Storage Integration:建立 Snowflake 与 S3 的安全访问
  2. 准备并导出数据到 S3:将 Snowflake 数据导出为 Parquet
  3. 加载数据到 Databend:从 S3 导入 Databend

何时选择 Snowflake 迁移

工具能力最适合场景适用情形
Snowflake 迁移全量整体数据仓库迁移需要迁出整个 Snowflake 仓库;希望通过 Parquet 高效传输;需要保持两边的 schema 兼容

相关主题

欢迎体验 Databend Cloud

基于 Rust + 对象存储构建的新一代多模态数仓,一个平台即可进行 BI、向量、全文检索及地理空间分析。

支持标准 SQL,自动弹性伸缩,助您快速构建现代化数据平台。

注册即领 ¥200 代金券。

注册体验