Regione del cluster

Quando crei un cluster Managed Service per Apache Spark, devi specificare una regione di Compute Engine, ad esempio "us-east1" o "europe-west1". Managed Service per Apache Spark isolerà le risorse del cluster, come le istanze VM e l'archiviazione di Cloud Storage e dei metadati, all'interno di una zona della regione specificata.

Quando crei un cluster, puoi anche specificare una zona all'interno della regione del cluster specificata, ad esempio "us-east1-a" o "europe-west1-b". Se non specifichi la zona, il posizionamento automatico delle zone di Managed Service per Apache Spark sceglierà una zona all'interno della regione del cluster specificata per individuare le risorse dei cluster.

Lo spazio dei nomi regionale corrisponde al /regions/REGION segmento degli URI delle risorse di Managed Service per Apache Spark (vedi, ad esempio, cluster networkUri).

Nomi delle regioni

I nomi delle regioni seguono una convenzione di denominazione standard basata sulle regioni di Compute Engine. Ad esempio, il nome della regione Stati Uniti centrali è us-central1 e il nome della regione Europa occidentale è europe-west1. Esegui il comando gcloud compute regions list per visualizzare un elenco delle regioni disponibili.

Endpoint regionali e di località

Google Cloud Le API possono fornire supporto per endpoint di località e regionali:

  • Gli endpoint di località garantiscono che i dati in transito rimangano nella località specificata quando vi si accede tramite connettività privata.

    Formato: {location}-{service}.googleapis.com

    Esempio: us-central-1-dataproc.googleapis.com

  • Gli endpoint regionali garantiscono che i dati in transito rimangano nella località specificata quando vi si accede tramite connettività privata o internet pubblico.

    Formato: {service}.{location}.rep.googleapis.com

    Esempio: dataproc.us-central1.rep.googleapis.com

L'endpoint predefinito di Managed Service per Apache Spark è l'endpoint di località. Per gli annunci sul supporto degli endpoint regionali di Managed Service per Apache Spark, consulta le note di rilascio di Managed Service per Apache Spark per.

Crea un cluster

Gcloud CLI

Quando crei un cluster, specifica una regione utilizzando il flag --region obbligatorio.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    other args ...

API REST

Utilizza il parametro URL REGION in una clusters.create per specificare la regione del cluster.

gRPC

Imposta l'indirizzo di trasporto del client sull'endpoint di località utilizzando il seguente pattern:

REGION-dataproc.googleapis.com

Esempio in Python (google-cloud-python):

from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport

transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
    address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)

project_id = 'my-project'
region = 'us-central1'
cluster = {...}

Esempio in Java (google-cloud-java):

ClusterControllerSettings settings =
     ClusterControllerSettings.newBuilder()
        .setEndpoint("us-central1-dataproc.googleapis.com:443")
        .build();
 try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
   String projectId = "my-project";
   String region = "us-central1";
   Cluster cluster = Cluster.newBuilder().build();
   Cluster response =
       clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
 }

Console

Specifica una regione di Managed Service per Apache Spark nella sezione Località del riquadro Configura cluster nella pagina Crea un cluster di Managed Service per Apache Spark nella Google Cloud console.

Passaggi successivi