Spanner로 데이터 내보내기(역방향 ETL)

이 문서에서는 BigQuery에서 Spanner로 역방향 추출, 변환, 로드(역방향 ETL) 워크플로를 설정하는 방법을 설명합니다. 이렇게 하려면 EXPORT DATA을 사용하여 Iceberg 테이블을 비롯한 BigQuery 데이터 소스에서 Spanner 테이블로 데이터를 내보내면 됩니다.

이 역방향 ETL 워크플로는 BigQuery의 분석 기능과 Spanner의 짧은 지연 시간과 높은 처리량을 결합합니다. 이 워크플로를 사용하면 BigQuery의 할당량과 한도를 소진하지 않고 애플리케이션 사용자에게 데이터를 제공할 수 있습니다.

시작하기 전에

필요한 역할

BigQuery 데이터를 Spanner로 내보내는 데 필요한 권한을 얻으려면 관리자에게 프로젝트에 대한 다음 IAM 역할을 부여해 달라고 요청하세요.

역할 부여에 대한 자세한 내용은 프로젝트, 폴더, 조직에 대한 액세스 관리를 참조하세요.

커스텀 역할이나 다른 사전 정의된 역할을 통해 필요한 권한을 얻을 수도 있습니다.

제한사항

  • 이 기능은 Assured Workloads에서 지원되지 않습니다.

  • 다음 BigQuery 데이터 유형에는 Spanner에 상응하는 항목이 없으며 이 유형은 지원되지 않습니다.

Spanner 데이터베이스 언어 지원되지 않는 BigQuery 유형
모든 언어
  • STRUCT
  • GEOGRAPHY
  • DATETIME
  • RANGE
  • TIME
GoogleSQL
  • BIGNUMERIC: 지원되는 NUMERIC 유형이 부족합니다. 쿼리의 NUMERIC 유형에 명시적 변환을 추가하는 것이 좋습니다.
  • 내보내는 행의 최대 크기는 1MiB를 초과할 수 없습니다.

  • Spanner는 내보내기 중에 참조 무결성을 적용합니다. 타겟 테이블이 다른 테이블의 하위 요소인 경우(INTERLEAVE IN PARENT) 또는 타겟 테이블에 외래 키 제약조건이 있는 경우 내보내기 중에 외래 키와 상위 키의 유효성이 검사됩니다. 내보낸 행이 INTERLEAVE IN PARENT를 사용하여 테이블에 쓰여지고 상위 행이 없으면 '상위 행이 누락되었습니다. 행을 쓸 수 없습니다.' 오류가 발생합니다. 내보낸 행이 외래 키 제약조건이 있는 테이블에 쓰여지고 존재하지 않는 키를 참조하는 경우 '외래 키 제약조건이 위반됨' 오류와 함께 내보내기가 실패합니다. 여러 테이블로 내보낼 때는 내보내기를 통해 참조 무결성이 유지되도록 내보내기 순서를 지정하는 것이 좋습니다. 일반적으로 이는 상위 테이블과 외래 키로 참조되는 테이블을 이를 참조하는 테이블보다 먼저 내보내는 것을 의미합니다.

    내보내기 대상인 테이블에 외래 키 제약 조건이 있거나 다른 테이블의 하위 요소인 경우(상위에서 INTERLEAVE) 하위 테이블을 내보내기 전에 상위 테이블을 채워야 하며 상위 테이블에 모든 상응하는 키가 포함되어야 합니다. 상위 테이블에 관련 키 집합이 완전하지 않은 상태에서 하위 테이블을 내보내려고 하면 실패합니다.

  • Spanner로의 추출 작업과 같은 BigQuery 작업은 최대 6시간 동안 지속됩니다. 대규모 추출 작업 최적화에 관한 자세한 내용은 내보내기 최적화를 참고하세요. 또는 입력을 개별 데이터 블록으로 분할하여 개별 추출 작업으로 내보낼 수 있습니다.

  • Spanner로 내보내기는 BigQuery Enterprise 또는 Enterprise Plus 버전에서만 지원됩니다. BigQuery Standard 버전 및 주문형 컴퓨팅에서는 지원되지 않습니다.

  • 연속 쿼리를 사용하여 자동 생성된 기본 키가 있는 Spanner 테이블로 내보낼 수는 없습니다.

  • 연속 쿼리를 사용하여 PostgreSQL 언어 데이터베이스의 Spanner 테이블로 내보낼 수는 없습니다.

  • 연속 쿼리를 사용하여 Spanner 테이블로 내보낼 때는 BigQuery 테이블에서 단조 증가하는 정수에 해당하지 않는 기본 키를 선택해야 합니다. 이렇게 하면 내보내기에서 성능 문제가 발생할 수 있습니다. Spanner의 기본 키와 이러한 성능 문제를 완화하는 방법에 관한 자세한 내용은 기본 키 선택을 참고하세요.

spanner_options 옵션으로 내보내기 구성

spanner_options 옵션을 사용하여 대상 Spanner 데이터베이스와 테이블을 지정할 수 있습니다. 구성은 다음 예시와 같이 JSON 문자열 형식으로 표현됩니다.

EXPORT DATA OPTIONS(
   uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
  format='CLOUD_SPANNER',
   spanner_options = """{
      "table": "TABLE_NAME",
      "change_timestamp_column": "CHANGE_TIMESTAMP",
      "priority": "PRIORITY",
      "tag": "TAG",
   }"""
)

다음을 바꿉니다.

  • PROJECT_ID: Google Cloud 프로젝트의 이름입니다.
  • INSTANCE_ID: 데이터베이스 인스턴스 이름입니다.
  • DATABASE_ID: 데이터베이스 이름입니다.
  • TABLE_NAME: 기존 대상 테이블 이름입니다.
  • CHANGE_TIMESTAMP: 대상 Spanner 테이블의 TIMESTAMP 유형 열의 이름입니다. 이 옵션은 내보내기 중에 가장 최근 행 업데이트의 타임스탬프를 추적하는 데 사용됩니다. 이 옵션을 지정하면 내보내기에서 먼저 Spanner 테이블의 행을 읽어 최신 행 업데이트만 쓰도록 합니다. 동일한 기본 키를 가진 행의 변경사항 순서가 중요한 연속 내보내기를 실행할 때는 TIMESTAMP 유형 열을 지정하는 것이 좋습니다.
  • PRIORITY(선택사항): 쓰기 요청의 우선순위입니다. 허용되는 값은 LOW, MEDIUM, HIGH입니다. 기본값은 MEDIUM입니다.
  • TAG(선택사항): Spanner 모니터링에서 내보내기 도구 트래픽을 식별하는 데 도움이 되는 요청 태그입니다. 기본값은 bq_export입니다.

내보내기 쿼리 요구사항

쿼리 결과를 Spanner로 내보내려면 결과가 다음 요구사항을 충족해야 합니다.

  • 결과 집합의 모든 열은 대상 테이블에 있어야 하며 유형이 일치하거나 변환 가능해야 합니다.
  • 결과 집합에는 대상 테이블의 모든 NOT NULL 열이 포함되어야 합니다.
  • 열 값은 Spanner 테이블 내 데이터 크기 한도를 초과하면 안 됩니다.
  • 지원되지 않는 열 유형을 Spanner로 내보내기 전에 지원되는 유형 중 하나로 변환해야 합니다.

유형 변환

사용 편의성을 위해 Spanner 내보내기 도구는 다음 유형 변환을 자동으로 적용합니다.

BigQuery 유형 Spanner 유형
BIGNUMERIC NUMERIC(PostgreSQL 언어만 해당)
FLOAT64 FLOAT32
BYTES PROTO
INT64 ENUM

데이터 내보내기

EXPORT DATA을 사용하여 데이터를 BigQuery 테이블에서 Spanner 테이블로 내보낼 수 있습니다.

다음 예시에서는 mydataset.table1이라는 테이블에서 선택한 필드를 내보냅니다.

EXPORT DATA OPTIONS (
  uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
  format='CLOUD_SPANNER',
  spanner_options="""{ "table": "TABLE_NAME" }"""
)
AS SELECT * FROM mydataset.table1;

다음을 바꿉니다.

  • PROJECT_ID: Google Cloud 프로젝트의 이름
  • INSTANCE_ID: 데이터베이스 인스턴스 이름
  • DATABASE_ID: 데이터베이스 이름
  • TABLE_NAME: 기존 대상 테이블 이름

동일한 rowkey 값으로 여러 결과 내보내기

rowkey 값이 동일한 여러 행을 포함하는 결과를 내보내면 Spanner에 기록된 값이 동일한 Spanner 행에 위치하게 됩니다. 일치하는 BigQuery 행 하나만(어떤 행일지는 보장되지 않음) 내보내기에서 생성된 Spanner 행 집합에 포함됩니다.

CLOUD_RESOURCE 연결을 사용하여 내보내기

사용자에게 Spanner 데이터베이스에 대한 직접 액세스 권한을 부여하지 않고 내보내기를 실행하기 위해 BigQuery CLOUD_RESOURCE 연결에 쓰기 권한을 위임할 수 있습니다.

CLOUD_RESOURCE 연결을 사용하여 Spanner로 내보내기 전에 다음 단계를 따르세요.

연결 만들기

CLOUD_RESOURCE 연결을 만들거나 기존 연결을 사용하여 Spanner에 연결할 수 있습니다.

다음 옵션 중 하나를 선택합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 왼쪽 창에서 탐색기를 클릭합니다.

    강조 표시된 탐색기 창 버튼

    왼쪽 창이 표시되지 않으면 왼쪽 창 펼치기를 클릭하여 창을 엽니다.

  3. 탐색기 창에서 프로젝트 이름을 펼친 후 연결을 클릭합니다.

  4. 연결 페이지에서 연결 만들기를 클릭합니다.

  5. 연결 유형으로 Vertex AI 원격 모델, 원격 함수, BigLake, Spanner(Cloud 리소스)를 선택합니다.

  6. 연결 ID 필드에 연결 이름을 입력합니다.

  7. 위치 유형에서 연결 위치를 선택합니다. 연결은 데이터 세트와 같이 다른 리소스와 함께 배치해야 합니다.

  8. 연결 만들기를 클릭합니다.

  9. 연결로 이동을 클릭합니다.

  10. 연결 정보 창에서 이후 단계에 사용할 서비스 계정 ID를 복사합니다.

bq

  1. 명령줄 환경에서 연결을 만듭니다.

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID

    --project_id 매개변수는 기본 프로젝트를 재정의합니다.

    다음을 바꿉니다.

    • REGION: 연결 리전
    • PROJECT_ID: Google Cloud 프로젝트 ID
    • CONNECTION_ID: 연결의 ID

    연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

    문제 해결: 다음 연결 오류가 발생하면 Google Cloud SDK를 업데이트하세요.

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. 이후 단계에서 사용할 수 있도록 서비스 계정 ID를 가져와 복사합니다.

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID

    출력은 다음과 비슷합니다.

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Python

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참고 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.

import google.api_core.exceptions
from google.cloud import bigquery_connection_v1

client = bigquery_connection_v1.ConnectionServiceClient()


def create_connection(
    project_id: str,
    location: str,
    connection_id: str,
):
    """Creates a BigQuery connection to a Cloud Resource.

    Cloud Resource connection creates a service account which can then be
    granted access to other Google Cloud resources for federated queries.

    Args:
        project_id: The Google Cloud project ID.
        location: The location of the connection (for example, "us-central1").
        connection_id: The ID of the connection to create.
    """

    parent = client.common_location_path(project_id, location)

    connection = bigquery_connection_v1.Connection(
        friendly_name="Example Connection",
        description="A sample connection for a Cloud Resource.",
        cloud_resource=bigquery_connection_v1.CloudResourceProperties(),
    )

    try:
        created_connection = client.create_connection(
            parent=parent, connection_id=connection_id, connection=connection
        )
        print(f"Successfully created connection: {created_connection.name}")
        print(f"Friendly name: {created_connection.friendly_name}")
        print(
            f"Service Account: {created_connection.cloud_resource.service_account_id}"
        )

    except google.api_core.exceptions.AlreadyExists:
        print(f"Connection with ID '{connection_id}' already exists.")
        print("Please use a different connection ID.")
    except Exception as e:
        print(f"An unexpected error occurred while creating the connection: {e}")

Node.js

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Node.js 설정 안내를 따르세요. 자세한 내용은 BigQuery Node.js API 참고 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.

const {ConnectionServiceClient} =
  require('@google-cloud/bigquery-connection').v1;
const {status} = require('@grpc/grpc-js');

const client = new ConnectionServiceClient();

/**
 * Creates a new BigQuery connection to a Cloud Resource.
 *
 * A Cloud Resource connection creates a service account that can be granted access
 * to other Google Cloud resources.
 *
 * @param {string} projectId The Google Cloud project ID. for example, 'example-project-id'
 * @param {string} location The location of the project to create the connection in. for example, 'us-central1'
 * @param {string} connectionId The ID of the connection to create. for example, 'example-connection-id'
 */
async function createConnection(projectId, location, connectionId) {
  const parent = client.locationPath(projectId, location);

  const connection = {
    friendlyName: 'Example Connection',
    description: 'A sample connection for a Cloud Resource',
    // The service account for this cloudResource will be created by the API.
    // Its ID will be available in the response.
    cloudResource: {},
  };

  const request = {
    parent,
    connectionId,
    connection,
  };

  try {
    const [response] = await client.createConnection(request);

    console.log(`Successfully created connection: ${response.name}`);
    console.log(`Friendly name: ${response.friendlyName}`);

    console.log(`Service Account: ${response.cloudResource.serviceAccountId}`);
  } catch (err) {
    if (err.code === status.ALREADY_EXISTS) {
      console.log(`Connection '${connectionId}' already exists.`);
    } else {
      console.error(`Error creating connection: ${err.message}`);
    }
  }
}

Terraform

google_bigquery_connection 리소스를 사용합니다.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.

다음 예시에서는 US 리전에 my_cloud_resource_connection이라는 Cloud 리소스 연결을 만듭니다.


# This queries the provider for project information.
data "google_project" "default" {}

# This creates a cloud resource connection in the US region named my_cloud_resource_connection.
# Note: The cloud resource nested object has only one output field - serviceAccountId.
resource "google_bigquery_connection" "default" {
  connection_id = "my_cloud_resource_connection"
  project       = data.google_project.default.project_id
  location      = "US"
  cloud_resource {}
}

Google Cloud 프로젝트에 Terraform 구성을 적용하려면 다음 섹션의 단계를 완료하세요.

Cloud Shell 준비

  1. Cloud Shell을 실행합니다.
  2. Terraform 구성을 적용할 기본 Google Cloud 프로젝트를 설정합니다.

    이 명령어는 프로젝트당 한 번만 실행하면 되며 어떤 디렉터리에서도 실행할 수 있습니다.

    export GOOGLE_CLOUD_PROJECT=PROJECT_ID

    Terraform 구성 파일에서 명시적 값을 설정하면 환경 변수가 재정의됩니다.

디렉터리 준비

각 Terraform 구성 파일에는 자체 디렉터리(루트 모듈이라고도 함)가 있어야 합니다.

  1. Cloud Shell에서 디렉터리를 만들고 해당 디렉터리 내에 새 파일을 만드세요. 파일 이름에는 .tf 확장자가 있어야 합니다(예: main.tf). 이 튜토리얼에서는 파일을 main.tf라고 합니다.
    mkdir DIRECTORY && cd DIRECTORY && touch main.tf
  2. 튜토리얼을 따라 하는 경우 각 섹션이나 단계에서 샘플 코드를 복사할 수 있습니다.

    샘플 코드를 새로 만든 main.tf에 복사합니다.

    필요한 경우 GitHub에서 코드를 복사합니다. 이는 Terraform 스니펫이 엔드 투 엔드 솔루션의 일부인 경우에 권장됩니다.

  3. 환경에 적용할 샘플 파라미터를 검토하고 수정합니다.
  4. 변경사항을 저장합니다.
  5. Terraform을 초기화합니다. 이 작업은 디렉터리당 한 번만 수행하면 됩니다.
    terraform init

    원하는 경우 최신 Google 공급업체 버전을 사용하려면 -upgrade 옵션을 포함합니다.

    terraform init -upgrade

변경사항 적용

  1. 구성을 검토하고 Terraform에서 만들거나 업데이트할 리소스가 예상과 일치하는지 확인합니다.
    terraform plan

    필요에 따라 구성을 수정합니다.

  2. 다음 명령어를 실행하고 프롬프트에 yes를 입력하여 Terraform 구성을 적용합니다.
    terraform apply

    Terraform에 '적용 완료' 메시지가 표시될 때까지 기다립니다.

  3. 결과를 보려면 Google Cloud 프로젝트를 엽니다. Google Cloud 콘솔에서 UI의 리소스로 이동하여 Terraform이 리소스를 만들었거나 업데이트했는지 확인합니다.

연결을 만든 후 엽니다. 연결 정보 창에서 서비스 계정 ID를 복사합니다. 연결의 권한을 구성할 때 이 ID가 필요합니다. 연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

액세스 설정

새 연결과 연결된 서비스 계정에 Spanner 인스턴스 또는 데이터베이스에 대한 쓰기 액세스 권한을 부여해야 합니다. Cloud Spanner 데이터베이스 사용자 (roles/spanner.databaseUser) 사전 정의된 IAM 역할을 사용하는 것이 좋습니다. 이 단계에서는 연결을 만들 때 복사한 서비스 계정 ID가 필요합니다.

서비스 계정에 데이터베이스 수준 역할에 대한 액세스 권한을 부여하려면 다음 단계를 따르세요.

  1. Spanner 인스턴스 페이지로 이동합니다.

    인스턴스 페이지로 이동

  2. 데이터베이스가 포함된 인스턴스의 이름을 클릭합니다.

  3. 개요 탭에서 데이터베이스의 확인란을 선택합니다.

  4. 정보 패널 대화상자가 나타납니다. 주 구성원 추가를 클릭합니다.

  5. 새 주 구성원에 앞에서 복사한 서비스 계정 ID를 입력합니다.

  6. 역할 선택 필드에서 spanner.databases.write 권한이 있는 역할을 선택합니다. Cloud Spanner 데이터베이스 사용자 역할을 사용하는 것이 좋습니다.

  7. 저장을 클릭합니다.

CLOUD_RESOURCE 연결을 사용하여 내보내기 실행

연결을 만들고 적절한 액세스 권한을 부여하면 CLOUD_RESOURCE 연결을 사용하여 내보내기를 실행할 수 있습니다. 다음 예에서는 CLOUD_RESOURCE 연결로 내보내는 EXPORT 명령어를 보여줍니다.

EXPORT DATA WITH CONNECTION `PROJECT_ID.LOCATION.CONNECTION_NAME` OPTIONS (
  uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
  format='CLOUD_SPANNER',
  spanner_options="""{ "table": "SPANNER_TABLE_NAME" }"""
)
AS SELECT * FROM my_bq_dataset.table1;

다음을 바꿉니다.

  • PROJECT_ID: Google Cloud 프로젝트의 이름입니다.
  • LOCATION: 연결을 만든 위치(예: us)
  • CONNECTION_NAME: 내보내기를 실행하는 데 사용되는 연결의 이름입니다(예: myconnection).
  • INSTANCE_ID: Spanner 데이터베이스 인스턴스의 이름입니다.
  • DATABASE_ID: Spanner 데이터베이스의 이름입니다.
  • SPANNER_TABLE_NAME: 기존 대상 Spanner 테이블의 이름입니다.

지속적으로 내보내기

내보내기 쿼리를 지속적으로 처리하려면 연속 쿼리 만들기에서 안내와 예시 코드를 참고하세요.

내보내기 최적화

BigQuery에서 Spanner로 레코드 내보내기를 최적화하려면 다음을 시도해 보세요.

  • Spanner 대상 인스턴스에서 노드 수를 늘립니다. 내보내기 초기 단계에서는 인스턴스의 노드 수를 늘리더라도 내보내기 처리량이 즉시 증가하지 않을 수 있습니다. Spanner에서 부하 기반 분할을 실행하는 동안 약간의 지연이 발생할 수 있습니다. 부하 기반 분할을 사용하면 내보내기 처리량이 증가한 후 안정화됩니다. EXPORT DATA 문을 사용하면 Spanner에 대한 쓰기를 최적화하기 위해 데이터가 일괄 처리됩니다. 자세한 내용은 성능 개요를 참고하세요.

  • spanner_options 내에서 HIGH 우선순위를 지정합니다. Spanner 인스턴스에 자동 확장이 사용 설정된 경우 HIGH 우선순위를 설정하면 CPU 사용률이 확장을 트리거하는 데 필요한 기준점에 도달하는 데 도움이 됩니다. 이를 통해 자동 스케일러가 내보내기 부하에 따라 컴퓨팅 리소스를 추가할 수 있으므로 전반적인 내보내기 처리량이 개선될 수 있습니다.

    다음 예시에서는 HIGH 우선순위로 설정된 Spanner 내보내기 명령어를 보여줍니다.

    EXPORT DATA OPTIONS (
      uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
      format='CLOUD_SPANNER',
      spanner_options="""{ "table": "TABLE_NAME", "priority": "HIGH" }"""
    )
  • 쿼리 결과를 정렬하지 마세요. 결과 집합에 모든 기본 키 열이 포함된 경우 내보내기 도구는 대상 테이블의 기본 키를 자동으로 정렬하여 쓰기를 간소화하고 경합을 최소화합니다.

    대상 테이블의 기본 키에 생성 열이 포함된 경우 내보낸 데이터가 올바르게 정렬되고 일괄 처리되도록 생성 열의 표현식을 쿼리에 추가합니다.

    예를 들어 다음 Spanner 스키마에서 SaleYearSaleMonth는 Spanner 기본 키의 시작 부분을 구성하는 생성된 열입니다.

    CREATE TABLE Sales (
      SaleId STRING(36) NOT NULL,
      ProductId INT64 NOT NULL,
      SaleTimestamp TIMESTAMP NOT NULL,
      Amount FLOAT64,
      -- Generated columns
      SaleYear INT64 AS (EXTRACT(YEAR FROM SaleTimestamp)) STORED,
      SaleMonth INT64 AS (EXTRACT(MONTH FROM SaleTimestamp)) STORED,
    ) PRIMARY KEY (SaleYear, SaleMonth, SaleId);

    기본 키에 사용되는 생성된 열이 있는 Spanner 테이블로 BigQuery에서 데이터를 내보낼 때는 EXPORT DATA 쿼리에 이러한 생성된 열의 표현식을 포함하는 것이 권장되지만 필수는 아닙니다. 이를 통해 BigQuery가 데이터를 올바르게 사전 정렬할 수 있으며, 이는 효율적인 일괄 처리 및 Spanner 쓰기에 중요합니다. EXPORT DATA 문의 생성 열 값은 Spanner에서 자동 생성되므로 Spanner에서 커밋되지 않지만 내보내기를 최적화하는 데 사용됩니다.

    다음 예시에서는 기본 키가 생성된 열을 사용하는 Spanner Sales 테이블로 데이터를 내보냅니다. 쓰기 성능을 최적화하기 위해 쿼리에는 생성된 SaleYearSaleMonth 열과 일치하는 EXTRACT 표현식이 포함되어 BigQuery에서 내보내기 전에 데이터를 미리 정렬할 수 있습니다.

    EXPORT DATA OPTIONS (
      uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
      format='CLOUD_SPANNER',
      spanner_options="""{ "table": "Sales" }"""
    )
    AS SELECT
      s.SaleId,
      s.ProductId,
      s.SaleTimestamp,
      s.Amount,
      -- Add expressions that match the generated columns in the Spanner PK
      EXTRACT(YEAR FROM s.SaleTimestamp) AS SaleYear,
      EXTRACT(MONTH FROM s.SaleTimestamp) AS SaleMonth
    FROM my_dataset.sales_export AS s;
  • 장기 실행 작업을 방지하려면 파티션별로 데이터를 내보내세요. 쿼리의 타임스탬프와 같은 파티션 키를 사용하여 BigQuery 데이터를 샤딩합니다.

    EXPORT DATA OPTIONS (
      uri="https://spanner.googleapis.com/projects/PROJECT_ID/instances/INSTANCE_ID/databases/DATABASE_ID",
      format='CLOUD_SPANNER',
      spanner_options="""{ "table": "TABLE_NAME", "priority": "MEDIUM" }"""
    )
    AS SELECT *
    FROM 'mydataset.table1' d
    WHERE
    d.timestamp >= TIMESTAMP '2025-08-28T00:00:00Z' AND
    d.timestamp < TIMESTAMP '2025-08-29T00:00:00Z';

    이렇게 하면 6시간 작업 런타임 내에 쿼리가 완료됩니다. 이러한 한도에 대한 자세한 내용은 쿼리 작업 한도를 참고하세요.

  • 데이터 로드 성능을 개선하려면 데이터가 가져온 Spanner 테이블에서 색인을 삭제하세요. 그런 다음 가져오기가 완료된 후 다시 만듭니다.

  • Spanner 노드 1개 (프로세서 단위 1,000개)와 최소한의 BigQuery 슬롯 예약으로 시작하는 것이 좋습니다. 예를 들어 슬롯 100개 또는 자동 확장이 있는 기준 슬롯 0개입니다. 100GB 미만의 내보내기의 경우 이 구성은 일반적으로 6시간 작업 제한 내에 완료됩니다. 100GB를 초과하는 내보내기의 경우 필요에 따라 Spanner 노드와 BigQuery 슬롯 예약을 확장하여 처리량을 늘립니다. 처리량은 노드당 약 5MiB/s로 확장됩니다.

가격 책정

EXPORT DATA 문을 사용하여 데이터를 Spanner로 내보내면 BigQuery 용량 계산 가격 책정을 사용하여 요금이 청구됩니다.

연속 쿼리를 사용하여 Spanner로 지속적으로 내보내려면 BigQuery Enterprise 또는 Enterprise Plus 버전 슬롯 예약과 CONTINUOUS 작업 유형을 사용하는 예약 할당이 있어야 합니다.

리전 경계를 교차하는 BigQuery에서 Spanner로의 내보내기는 데이터 추출 요율을 사용하여 청구됩니다. 자세한 내용은 BigQuery 가격 책정을 참조하세요. 데이터 전송 요금이 부과되지 않도록 하려면 BigQuery 내보내기가 Spanner 기본 리더와 동일한 리전에서 실행되는지 확인하세요.

데이터를 내보낸 후에 Spanner에 데이터 저장 요금이 청구됩니다. 자세한 내용은 Spanner 가격 책정을 참조하세요.