Spanner to BigQuery テンプレートは、Spanner テーブルからデータを読み取り、BigQuery に書き込むバッチ パイプラインです。
パイプラインの要件
- パイプラインを実行する前に、ソースの Spanner テーブルが存在する必要があります。
- パイプラインの実行前に BigQuery データセットが存在している必要があります。
- BigQuery スキーマを記述する JSON ファイル。
このファイルには、
fieldsというタイトルの最上位の JSON 配列が含まれている必要があります。fields配列の内容は、次のパターンを使用する必要があります。{"name": "COLUMN_NAME", "type": "DATA_TYPE"}.次の JSON は、BigQuery スキーマの例を示しています。
{ "fields": [ { "name": "location", "type": "STRING" }, { "name": "name", "type": "STRING" }, { "name": "age", "type": "STRING" }, { "name": "color", "type": "STRING" }, { "name": "coffee", "type": "STRING" } ] }
Spanner to BigQuery バッチ テンプレートでは、ターゲットの BigQuery テーブルの
STRUCT(レコード) フィールドへのデータのインポートはサポートされていません。
テンプレートのパラメータ
必須パラメータ
- spannerInstanceId: 読み取り元の Spanner データベースのインスタンス ID。
- spannerDatabaseId: エクスポートする Spanner データベースのデータベース ID。
- outputTableSpec: 出力を書き込む BigQuery 出力テーブルの場所。たとえば、
<PROJECT_ID>:<DATASET_NAME>.<TABLE_NAME>です。指定されたcreateDispositionによっては、ユーザーが指定した Avro スキーマを使用して出力テーブルが自動的に作成される場合があります。
オプション パラメータ
- spannerProjectId: Spanner データベースが存在するプロジェクトの ID。このパラメータのデフォルト値は、Dataflow パイプラインが動作しているプロジェクトです。
- spannerTableId: エクスポートする Spanner データベースのテーブル名。sqlQuery が設定されている場合は無視されます。
- spannerRpcPriority: Spanner 呼び出しのリクエストの優先度(https://cloud.google.com/spanner/docs/reference/rest/v1/RequestOptions)。有効な値は
HIGH、MEDIUM、LOWです。デフォルト値はHIGHです。 - sqlQuery: Spanner データベースからデータを読み取るために使用する SQL クエリ。spannerTableId が空の場合は必須です。
- bigQuerySchemaPath: BigQuery スキーマを定義する JSON ファイルの Cloud Storage パス(gs://)これは、Create Disposition が CREATE_NEVER でない場合(
gs://your-bucket/your-schema.jsonなど)に必要です。 - writeDisposition: BigQuery WriteDisposition(https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#jobconfigurationload)の値。例:
WRITE_APPEND、WRITE_EMPTY、WRITE_TRUNCATE。デフォルトはWRITE_APPENDです。 - createDisposition: BigQuery CreateDisposition(https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#jobconfigurationload)。例:
CREATE_IF_NEEDED、CREATE_NEVER。デフォルトはCREATE_IF_NEEDEDです。 - useStorageWriteApi:
trueの場合、パイプラインでは BigQuery Storage Write API(https://cloud.google.com/bigquery/docs/write-api)を使用します。デフォルト値はfalseです。詳細については、Storage Write API の使用(https://beam.apache.org/documentation/io/built-in/google-bigquery/#storage-write-api)をご覧ください。 - useStorageWriteApiAtLeastOnce: Storage Write API を使用する場合は、書き込みセマンティクスを指定します。「1 回以上」のセマンティクス(https://beam.apache.org/documentation/io/built-in/google-bigquery/#at-least-once-semantics)を使用するには、このパラメータを
trueに設定します。「正確に 1 回」のセマンティクスを使用するには、パラメータをfalseに設定します。このパラメータは、useStorageWriteApiがtrueの場合にのみ適用されます。デフォルト値はfalseです。
テンプレートを実行する
コンソール
- Dataflow の [テンプレートからジョブを作成] ページに移動します。 [テンプレートからジョブを作成] に移動
- [ジョブ名] フィールドに、固有のジョブ名を入力します。
- (省略可)[リージョン エンドポイント] で、プルダウン メニューから値を選択します。デフォルトのリージョンは
us-central1です。Dataflow ジョブを実行できるリージョンのリストについては、Dataflow のロケーションをご覧ください。
- [Dataflow テンプレート] プルダウン メニューから、[ the Spanner to BigQuery template] を選択します。
- 表示されたパラメータ フィールドに、パラメータ値を入力します。
- [ジョブを実行] をクリックします。
gcloud
シェルまたはターミナルで、テンプレートを実行します。
gcloud dataflow flex-template run JOB_NAME \ --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/Cloud_Spanner_to_BigQuery_Flex \ --project=PROJECT_ID \ --region=REGION_NAME \ --parameters \ spannerInstanceId=SPANNER_INSTANCE_ID,\ spannerDatabaseId=SPANNER_DATABASE_ID,\ spannerTableId=SPANNER_TABLE_ID,\ sqlQuery=SQL_QUERY,\ outputTableSpec=OUTPUT_TABLE_SPEC,\
次のように置き換えます。
JOB_NAME: 一意の任意のジョブ名VERSION: 使用するテンプレートのバージョン使用できる値は次のとおりです。
latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内の日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。- バージョン名(例:
2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内の対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
REGION_NAME: Dataflow ジョブをデプロイするリージョン(例:us-central1)SPANNER_INSTANCE_ID: Spanner インスタンス IDSPANNER_DATABASE_ID: Spanner データベース IDSPANNER_TABLE_ID: Spanner テーブル名SQL_QUERY: SQL クエリOUTPUT_TABLE_SPEC: BigQuery テーブルのロケーション
API
REST API を使用してテンプレートを実行するには、HTTP POST リクエストを送信します。API とその認証スコープの詳細については、projects.templates.launch をご覧ください。
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch { "launchParameter": { "jobName": "JOB_NAME", "parameters": { "spannerInstanceId": "SPANNER_INSTANCE_ID", "spannerDatabaseId": "SPANNER_DATABASE_ID", "spannerTableId": "SPANNER_TABLE_ID", "sqlQuery": "SQL_QUERY", "outputTableSpec": "OUTPUT_TABLE_SPEC", }, "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/Cloud_Spanner_to_BigQuery_Flex", "environment": { "maxWorkers": "10" } } }
次のように置き換えます。
PROJECT_ID: Dataflow ジョブを実行する Google Cloud プロジェクト IDJOB_NAME: 一意の任意のジョブ名VERSION: 使用するテンプレートのバージョン使用できる値は次のとおりです。
latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内の日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。- バージョン名(例:
2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内の対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
LOCATION: Dataflow ジョブをデプロイするリージョン(例:us-central1)SPANNER_INSTANCE_ID: Spanner インスタンス IDSPANNER_DATABASE_ID: Spanner データベース IDSPANNER_TABLE_ID: Spanner テーブル名SQL_QUERY: SQL クエリOUTPUT_TABLE_SPEC: BigQuery テーブルのロケーション
次のステップ
- Dataflow テンプレートについて学習する。
- Google 提供のテンプレートのリストを確認する。