Região do cluster

Especifique uma região do Compute Engine, como "us-east1" ou "europe-west1", ao criar um cluster do Serviço Gerenciado para Apache Spark. O Serviço Gerenciado para Apache Spark isolará os recursos do cluster, como instâncias de VM e armazenamento de metadados e do Cloud Storage, em uma zona dentro da região especificada.

Se preferir, especifique uma zona na região do cluster, como "us-east1-a" ou "europe-west1-b", ao criar um cluster. Se você não especificar a zona, o Posicionamento em zona automática do Serviço Gerenciado para Apache Spark vai escolher uma zona na região do cluster especificada para localizar os recursos do cluster.

O namespace regional corresponde ao /regions/REGION segmento dos URIs de recursos do Serviço Gerenciado para Apache Spark (consulte, por exemplo, o cluster networkUri).

Nomes das regiões

Os nomes das regiões seguem uma convenção de nomenclatura padrão com base nas regiões do Compute Engine. Por exemplo, o nome da região central dos EUA é us-central1 e o nome da região da Europa Ocidental é europe-west1. Execute o comando gcloud compute regions list para ver uma lista de regiões disponíveis.

Endpoints regionais e de local

Google Cloud As APIs podem oferecer suporte a endpoints regionais e de local:

  • Os endpoints de local garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade privada.

    Formato: {location}-{service}.googleapis.com

    Exemplo: us-central-1-dataproc.googleapis.com

  • Os endpoints regionais garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade privada ou pela Internet pública.

    Formato: {service}.{location}.rep.googleapis.com

    Exemplo: dataproc.us-central1.rep.googleapis.com

O endpoint padrão do Serviço Gerenciado para Apache Spark é o endpoint de local. Consulte as notas de lançamento do Serviço Gerenciado para Apache Spark para conferir anúncios sobre o suporte do Serviço Gerenciado para Apache Spark a endpoints regionais.

Criar um cluster

CLI gcloud

Ao criar um cluster, especifique uma região usando a flag obrigatória --region.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    other args ...

API REST

Use o parâmetro de URL REGION em uma clusters.create para especificar a região do cluster.

gRPC

Defina o endereço de transporte do cliente para o endpoint de local usando o seguinte padrão:

REGION-dataproc.googleapis.com

Exemplo de Python (google-cloud-python):

from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport

transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
    address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)

project_id = 'my-project'
region = 'us-central1'
cluster = {...}

Exemplo de Java (google-cloud-java):

ClusterControllerSettings settings =
     ClusterControllerSettings.newBuilder()
        .setEndpoint("us-central1-dataproc.googleapis.com:443")
        .build();
 try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
   String projectId = "my-project";
   String region = "us-central1";
   Cluster cluster = Cluster.newBuilder().build();
   Cluster response =
       clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
 }

Console

Especifique uma região do Serviço Gerenciado para Apache Spark na seção "Local" do painel Configurar cluster na página Criar um cluster do Serviço Gerenciado para Apache Spark no Google Cloud console.

A seguir