tencent cloud

Data Transfer Service

소식 및 공지 사항
릴리스 노트
제품 소개
제품 개요
데이터 마이그레이션 기능 설명
데이터 동기화 기능 설명
데이터 구독(Kafka 버전) 기능 설명
제품 장점
구매 가이드
과금 개요
환불 설명
시작하기
데이터 마이그레이션 작업 가이드
데이터 동기화 작업 가이드
데이터 구독 작업 가이드(Kafka 버전)
준비 작업
자체구축 MySQL용 Binlog 설정
데이터 마이그레이션
데이터 마이그레이션 지원 데이터베이스
ApsaraDB 교차 계정 인스턴스 간 마이그레이션
PostgreSQL로 마이그레이션
작업 관리
데이터 동기화
데이터 동기화가 지원하는 데이터베이스
계정 간 TencentDB 인스턴스 동기화
작업 관리
데이터 구독(Kafka 버전)
데이터 구독이 지원하는 데이터베이스
데이터 구독 작업 생성
작업 관리
컷오버 설명
모니터링 및 알람
모니터링 메트릭 조회
사례 튜토리얼
양방향 동기화 데이터 구조 생성
다대일 동기화 데이터 구조 생성
멀티 사이트 Active-Active IDC 구축
데이터 동기화 충돌 해결 정책 선택하기
CLB 프록시를 사용하여 계정 간 데이터베이스 마이그레이션하기
CCN으로 자체 구축 MySQL에서 TencentDB for MySQL로 마이그레이션
검증 불통과 처리 방법
버전 확인
원본 데이터베이스 권한 확인
계정 충돌 확인
부분 데이터베이스 매개변수 확인
원본 인스턴스 매개변수 확인
매개변수 설정 충돌 확인
대상 데이터베이스 콘텐츠 충돌 확인
대상 데이터베이스 공간 확인
Binlog 매개변수 확인
증분 마이그레이션 전제 조건 확인
플러그인 호환성 확인
레벨2 파티션 테이블 확인
기본 키 확인
마이그레이션할 테이블에 대한 DDL 확인
시스템 데이터베이스 충돌 확인
소스 및 대상 인스턴스 테이블 구조 확인
InnoDB 테이블 확인
마이그레이션 객체 종속성 확인
제약 조건 확인
FAQs
데이터 마이그레이션
데이터 동기화
데이터 구독 Kafka 버전 FAQ
구독 정규식
API문서
History
Introduction
API Category
Making API Requests
(NewDTS) Data Migration APIs
Data Sync APIs
Data Consistency Check APIs
(NewDTS) Data Subscription APIs
Data Types
Error Codes
DTS API 2018-03-30
Service Agreement
Service Level Agreements
액세스 관리
DTS를 사용할 서브 계정 생성 및 권한 부여
서브 계정에 재무 권한 부여하기
문서Data Transfer Service

Use Instructions

포커스 모드
폰트 크기
마지막 업데이트 시간: 2026-02-11 14:48:54

Subscription Operation Instructions

1. The region of the DTS subscription task must be consistent with the region to which the cloud database belongs.
2. After the specified database or collection of the selected subscription object is deleted in the source database, the subscription data (Change Stream) for that database or collection will be invalidated. Even if the database or collection is recreated in the source database, the data subscription cannot be resumed. It is necessary to reset the subscription task and reselect the subscription objects.

Consumption Operation Instructions

1. During data consumption, consumption via public network connection to the Kafka for data subscription is not supported; only access through the Tencent Cloud private network is allowed, and the consumption region must be consistent with the region of the DTS subscription task.
2. To ensure data reentrancy, DTS subscription introduces a Checkpoint mechanism. When messages are written to Kafka Topic, a Checkpoint is generally inserted every 10 seconds to mark the data synchronization checkpoint. After a task interruption and restart, the breakpoint position is identified to enable resumable transfer. Additionally, when the consumer encounters a Checkpoint message, it performs a Kafka consumption offset commit to update the consumption offset in a timely manner.

Built-in Kafka Description

1. The subscribed messages are stored in the DTS built-in Kafka (single-topic). Currently, the default retention period is the most recent 1 day, with a maximum storage capacity of 500G per single-topic. When data storage exceeds 1 day or the data volume surpasses 500G, the built-in Kafka will begin purging the earliest written data. Therefore, users should consume the data promptly to prevent it from being purged before consumption is complete.
2. The built-in Kafka in DTS has a certain upper limit for processing a single message. When a single row of data in the source database exceeds 10MB, this data may be discarded at the consumer side.

Supported SQL Operations for Subscription

Operation Type
Supported SQL Operations
DML
INSERT,UPDATE,DELETE
DDL
INDEX:createIndexes,createIndex,dropIndex,dropIndexes COLLECTION:createCollection,drop,collMod,renameCollection DATABASE:dropDatabase,copyDatabase

도움말 및 지원

문제 해결에 도움이 되었나요?

피드백