Região do cluster

Você especifica uma região do Compute Engine, como "us-east1" ou "europe-west1", ao criar um cluster do Managed Service para Apache Spark. O serviço gerenciado para Apache Spark isola recursos de cluster, como instâncias de VM e armazenamento de metadados e do Cloud Storage, em uma zona dentro da região especificada.

Ao criar um cluster, é possível especificar uma zona na região dele, como "us-east1-a" ou "europe-west1-b". Se você não especificar a zona, a Colocação em zona automática do Managed Service for Apache Spark vai escolher uma zona na região especificada do cluster para localizar recursos de clusters.

O namespace regional corresponde ao segmento /regions/REGION dos URIs de recursos do Serviço gerenciado para Apache Spark. Por exemplo, o cluster networkUri.

Nomes das regiões

Os nomes das regiões seguem uma convenção de nomenclatura padrão com base nas regiões do Compute Engine. Por exemplo, o nome da região central dos EUA é us-central1 e o nome da região da Europa Ocidental é europe-west1. Execute o comando gcloud compute regions list para ver uma lista de regiões disponíveis.

Endpoints de local e regionais

As APIs doGoogle Cloud podem oferecer suporte a endpoints de localização e regionais:

  • Os endpoints de locais garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade particular.

    Formato: {location}-{service}.googleapis.com

    Exemplo: us-central-1-dataproc.googleapis.com

  • Os endpoints regionais garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade particular ou pela Internet pública.

    Formato: {service}.{location}.rep.googleapis.com

    Exemplo: dataproc.us-central1.rep.googleapis.com

O endpoint padrão do Managed Service for Apache Spark é o endpoint de local. Consulte as notas da versão do Managed Service for Apache Spark para anúncios sobre o suporte do Managed Service for Apache Spark a endpoints regionais.

Criar um cluster

CLI da gcloud

Ao criar um cluster, especifique uma região usando a flag --region obrigatória.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    other args ...

API REST

Use o parâmetro de URL REGION em uma solicitação clusters.create para especificar a região do cluster.

gRPC

Defina o endereço de transporte do cliente para o endpoint locacional usando o seguinte padrão:

REGION-dataproc.googleapis.com

Exemplo de Python (google-cloud-python):

from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport

transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
    address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)

project_id = 'my-project'
region = 'us-central1'
cluster = {...}

Exemplo de Java (google-cloud-java):

ClusterControllerSettings settings =
     ClusterControllerSettings.newBuilder()
        .setEndpoint("us-central1-dataproc.googleapis.com:443")
        .build();
 try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
   String projectId = "my-project";
   String region = "us-central1";
   Cluster cluster = Cluster.newBuilder().build();
   Cluster response =
       clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
 }

Console

Especifique uma região do Managed Service for Apache Spark na seção "Local" do painel Configurar cluster na página Criar um cluster do Managed Service for Apache Spark no console Google Cloud .

A seguir