tencent cloud

Data Lake Compute

製品概要
プロダクト概要
製品の強み
適用シーン
購入ガイド
課金概要
返金説明
支払い期限切れ説明
設定調整費用の説明
クイックスタート
新規ユーザー開通フルプロセス
DLC データインポートガイド
DLCデータ分析の1分間入門
DLC権限管理の1分間入門
パーティションテーブル1分間入門
データ最適化をオンにする
クロスソース分析 EMR Hive データ
標準エンジン構成ガイド
操作ガイド
コンソール操作紹介
開発ガイド
実行環境
SparkJar ジョブ開発ガイド
PySparkジョブ開発ガイド
「クエリパフォーマンス最適化ガイド」
UDF 関数開発ガイド
システム制約
クライアントアクセス
JDBCアクセス
TDLC コマンドラインツールにアクセス
サードパーティソフトウェア連携
Python にアクセス
実践チュートリアル
DLC を Power BI に接続
テーブル作成の実践
Apache Airflowを使用してDLCエンジンのタスクをスケジュールして送信する
StarRocks は DLC 内部ストレージを直接クエリします
Spark の計算コスト最適化プラクティス
DATA + AI
ロールSSOを使用してDLCにアクセスする
SQL構文
SuperSQL構文
標準 Spark 構文概要
標準 Presto 構文の概要
予約語
API Documentation
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
一般クラスリファレンス
エラーコード
クォータと制限
サードパーティソフトウェアでDLCに接続する操作ガイド
よくあるご質問
権限に関するよくあるご質問
エンジン類のよくある質問
機能に関するよくあるご質問
Sparkジョブクラスに関するよくある質問
DLC ポリシー
プライバシーポリシー
データプライバシーとセキュリティ契約
お問い合わせ

Hive JDBC アクセス

PDF
フォーカスモード
フォントサイズ
最終更新日: 2025-12-25 11:01:12

サポートエンジンタイプ

標準Sparkエンジン

環境準備

依存関係:JDK 1.8

標準Sparkエンジンに接続

サービスアクセスリンクを作成

データエンジンページに入り、ゲートウェイの詳細ボタンをクリックして、ゲートウェイ詳細ページに移動します:

プライベート接続を作成をクリックし、送信機が配置されているVPCとサブネットを選択し、作成をクリックすると、Hive2とPrestoプロトコルの2つのアクセスリンクが生成されます。標準SparkエンジンにはHive2プロトコルを使用します。下図を参照してください。
注意:
プライベート接続を作成すると、エンジンネットワークと選択したVPC間のネットワークが接続されます。サブミッションマシンは、選択したVPC下でログイン可能な任意のサーバーを使用でき、タスクの送信のみに使用されます。選択したVPC下にサブミッションマシンがない場合は、新しいサーバーを作成してサブミッションマシンとして使用できます。

jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE

JDBCドライバをロード

Class.forName("org.apache.hive.jdbc.HiveDriver");

DriverManager を使用して Connection を作成します

jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE
Properties properties = new Properties();
properties.setProperty("user", {AppId});
Connection cnct = DriverManager.getConnection(url, properties);

JDBC接続文字列パラメータ説明

パラメータ
必須
説明
spark.engine
はい
標準Sparkエンジン名
spark.resourcegroup
いいえ
標準Sparkエンジンリソースグループ名、指定しない場合は一時リソースを作成します
secretkey
はい
TencentCloud APIキー管理におけるSecretKey
secretid
はい
TencentCloud APIキー管理におけるSecretId
region
はい
地域、現在DLCサービスはap-nanjing、ap-beijing、ap-beijing-fsi、ap-guangzhou、ap-shanghaiをサポートしています
ap-chengdu、ap-chongqing, na-siliconvalley, ap-singapore, ap-hongkong, na-ashburn, eu-frankfurt,
ap-shanghai-fsi
kyuubi.engine.type
はい
固定填:SparkSQLTask
kyuubi.engine.share.level
はい
エンジンを固定
user
はい
ユーザー APPID

データクエリの完成例

import org.apache.hive.jdbc.HiveStatement;
import java.sql.*;
import java.util.Properties;

public class TestStandardSpark {
public static void main(String[] args) throws SQLException {
try {
Class.forName("org.apache.hive.jdbc.HiveDriver");
} catch (ClassNotFoundException e) {
e.printStackTrace();
return;
}
String url = "jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE";
Properties properties = new Properties();
properties.setProperty("user", {AppId});
Connection connection = DriverManager.getConnection(url, properties);
HiveStatement statement = (HiveStatement) connection.createStatement();
String sql = "SELECT * FROM dlc_test LIMIT 100";
statement.execute(sql);
ResultSet rs = statement.getResultSet();
while (rs.next()) {
System.out.println(rs.getInt(1) + ":" + rs.getString(2));
}
rs.close();
statement.close();
connection.close();
}
}
コンパイルが完了したら、jarパッケージを提出機に提出して実行できます。

ヘルプとサポート

この記事はお役に立ちましたか?

フィードバック