テーブルをインポートする

外部の Apache Iceberg テーブルを Lakehouse for Apache Iceberg にインポートすると、複数のカタログのデータが統合されます。Lakehouse ランタイム カタログ 内の Apache Iceberg REST カタログ エンドポイント を使用すると、クエリエンジンから これらのインポートされたテーブルに直接アクセスできます。

始める前に

  1. プロジェクト Google Cloud に対して課金が有効になっていることを確認します

  2. BigLake API を有効にします。

    API を有効にするために必要なロール

    API を有効にするには、serviceusage.services.enable 権限を含む Service Usage 管理者 IAM ロール(roles/serviceusage.serviceUsageAdmin)が必要です。詳しくは、ロールを付与する方法をご覧ください。

    API の有効化

必要なロール

コンソールでテーブルをインポートするために必要な権限を取得するには、プロジェクトに関する次の IAM ロールを付与してもらうよう管理者に依頼してください。 Google Cloud

ロールの付与については、プロジェクト、フォルダ、組織へのアクセス権の管理をご覧ください。

必要な権限は、カスタム ロールや他の事前定義 ロールから取得することもできます。

テーブルをインポートする

Dataflow のジョブビルダー UI を使用して、外部の Apache Iceberg REST カタログ(IRC)から Google Cloud Lakehouse テーブルに直接データを取り込むことができます。詳細については、外部の Iceberg テーブルを Dataflow にインポートするをご覧ください。