tencent cloud

Data Lake Compute

製品概要
プロダクト概要
製品の強み
適用シーン
購入ガイド
課金概要
返金説明
支払い期限切れ説明
設定調整費用の説明
クイックスタート
新規ユーザー開通フルプロセス
DLC データインポートガイド
DLCデータ分析の1分間入門
DLC権限管理の1分間入門
パーティションテーブル1分間入門
データ最適化をオンにする
クロスソース分析 EMR Hive データ
標準エンジン構成ガイド
操作ガイド
コンソール操作紹介
開発ガイド
実行環境
SparkJar ジョブ開発ガイド
PySparkジョブ開発ガイド
「クエリパフォーマンス最適化ガイド」
UDF 関数開発ガイド
システム制約
クライアントアクセス
JDBCアクセス
TDLC コマンドラインツールにアクセス
サードパーティソフトウェア連携
Python にアクセス
実践チュートリアル
DLC を Power BI に接続
テーブル作成の実践
Apache Airflowを使用してDLCエンジンのタスクをスケジュールして送信する
StarRocks は DLC 内部ストレージを直接クエリします
Spark の計算コスト最適化プラクティス
DATA + AI
ロールSSOを使用してDLCにアクセスする
SQL構文
SuperSQL構文
標準 Spark 構文概要
標準 Presto 構文の概要
予約語
API Documentation
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
一般クラスリファレンス
エラーコード
クォータと制限
サードパーティソフトウェアでDLCに接続する操作ガイド
よくあるご質問
権限に関するよくあるご質問
エンジン類のよくある質問
機能に関するよくあるご質問
Sparkジョブクラスに関するよくある質問
DLC ポリシー
プライバシーポリシー
データプライバシーとセキュリティ契約
お問い合わせ
ドキュメントData Lake ComputeクライアントアクセスTDLC コマンドラインツールにアクセス

TDLC コマンドラインツールにアクセス

PDF
フォーカスモード
フォントサイズ
最終更新日: 2025-12-26 17:35:44
TDLCは、Tencent Cloud DataLake Compute(DLC)が提供するクライアントコマンドツールです。TDLCツールを使用すると、DLCデータエンジンにSQLやSparkタスクを送信できます。
TDLCはGoで記述されており、Cobraフレームワークに基づいており、複数のバケットの設定とクロスバケット操作をサポートしています。./tdlc [command] --helpを使用してTDLCの使用方法を確認できます。

ダウンロードとインストール

TDLCコマンドラインツールは、Windows、Mac、Linuxオペレーティングシステム向けのバイナリパッケージを提供しており、簡単なインストールと設定後に使用できます。クライアントのOSタイプに応じてダウンロードを選択できます。
オペレーティングシステム
TDLCバイナリパッケージ ダウンロード先
Windows
Mac
Linux
ダウンロードしたファイルをtdlcに名前を変更します。クライアントのコマンドラインを開き、ダウンロードパスに切り替えます。Mac/Linuxシステムの場合は、chmod +x tdlcコマンドを使用してファイルに実行権限を付与する必要があります。./tdlcを実行し、以下の内容が正常に表示されれば、インストールが成功し使用可能です。
Tencentcloud DLC command tools is used to play around with DLC.
With TDLC user can manger engines, execute SQLs and submit Spark Jobs.

Usage:
tdlc [flags]
tdlc [command]

Available Commands:
config
help Help about any command
spark Submit spark app to engines.
sql Executing SQL.
version

Flags:
--endpoint string Endpoint of Tencentcloud account. (default "dlc.tencentcloudapi.com")
--engine string DLC engine. (default "public-engine")
-h, --help help for tdlc
--region string Region of Tencentcloud account.
--role-arn string Required by spark jar app.
--secret-id string SecretId of Tencentcloud account.
--secret-key string SecretKey of Tencentcloud account.
--token string Token of Tencentcloud account.

Use "tdlc [command] --help" for more information about a command.

使用説明 

グローバルパラメータ

TDLC は以下のグローバルパラメータを提供します。
グローバルパラメータ
説明
--endpoint string
サービス接続アドレス、デフォルトでは dlc.tencentcloudapi.com を使用します
--engine string
DLC データエンジン名、デフォルト値は public-engine です。専用データエンジンの使用をお勧めします。
--region string
利用地域。例: ap-nanjing, ap-beijing, ap-guangzhou, ap-shanghai, ap-chengdu, ap-chongqing, na-siliconvalley, ap-singapore, ap-hongkong
--role-arn string
spark ジョブを送信する際、cos ファイルへのアクセス権限を指定する必要があります。今回指定する権限ロールの rolearn については、データアクセスポリシーの設定を参照してください。
--secret-id string
腾讯雲アカウントのsecretId
--secret-key string
腾讯雲アカウントのsecretKey
--token string
(任意)Tencent Cloudアカウントの一時トークン

CONFIG コマンド

config はよく使われるパラメータを設定でき、設定されたパラメータはデフォルト値として提供されます。コマンドライン引数は、config で設定されたパラメータを上書きします。
コマンド
 説明
list
現在のデフォルト設定をリスト表示します
set
構成を変更する
unset
設定をリセット
例:
./tdlc config list
./tdlc config set secret-id={1} secret-key={2} region={b}
./tdlc config unset region

SQLサブコマンド

SQLサブコマンドは現在PrestoまたはSparkSQLクラスターのみをサポートしており、以下はSQLサブコマンドがサポートするパラメータです。
パラメータ
 説明
-e, --exec
SQL文を実行する
-f, --file
SQLファイルを実行します。複数のSQLファイルがある場合は、;で分割してください
--no-result
実行後に結果を取得しません
-p, --progress
実行進捗を表示
-q, --quiet
サイレントモード、タスクを送信した後にタスクの実行状態を待機しません
例:
./tdlc sql -e "SELECT 1" --secret-id aa --secret-key bb --region ap-beijing --engine public-engine
./tdlc sql -f ~/biz.sql --no-result 

SPARK サブコマンド

Spark サブコマンドには以下のコマンドが含まれており、Sparkジョブの送信、実行ログの確認、タスクの終了に使用できます。
コマンド
説明
submit
spark-submitでタスクを送信する
run 
sparkジョブを実行する
log
実行ログの表示
list
sparkジョブリストを表示する
kill
タスクを終了する
以下はSpark submit サブコマンドでサポートされているパラメータです。リスト内のファイル関連パラメータはローカルファイルまたはCOSNプロトコルを使用できます。
パラメータ
 説明
--driver-size 
ドライバー仕様、デフォルトでsmall、medium、large、xlargeを使用し、メモリ型クラスターはm.xmall、m.medium、m.large、m.xlargeを使用します
--executor-size 
executor 仕様、デフォルトで small、medium、large、xlarge を使用し、メモリ型クラスターは m.xmall、m.medium、m.large、m.xlarge を使用します
--executor-num
executor 数量
--files
sparkジョブリストを表示する
--archives
依存圧縮ファイル
--class
Java/Scala で実行するメイン関数
--jars
依存するjarパッケージ、,で分割して使用
--name
プログラム名称
--py-files
依存するpythonファイル、.zip、.egg、.py形式をサポート
--conf
追加構成
例:
./tdlc spark submit --name spark-demo1 --engine sparkjar --jars /root/sparkjar-dep.jar --class com.demo.Example /root/sparkjar-main.jar arg1
./tdlc spark submit --name spark-demo2 cosn://bucket1/abc.py arg1



ヘルプとサポート

この記事はお役に立ちましたか?

フィードバック