Quando crei un cluster Managed Service per Apache Spark, devi specificare una regione di Compute Engine, ad esempio "us-east1" o "europe-west1". Managed Service per Apache Spark isolerà le risorse del cluster, come le istanze VM e l'archiviazione di Cloud Storage e dei metadati, all'interno di una zona della regione specificata.
Quando crei un cluster, puoi anche specificare una zona all'interno della regione del cluster specificata, ad esempio "us-east1-a" o "europe-west1-b". Se non specifichi la zona, il posizionamento automatico delle zone di Managed Service per Apache Spark sceglierà una zona all'interno della regione del cluster specificata per individuare le risorse dei cluster.
Lo spazio dei nomi regionale corrisponde al /regions/REGION
segmento degli URI delle risorse di Managed Service per Apache Spark (vedi, ad esempio, cluster
networkUri).
Nomi delle regioni
I nomi delle regioni seguono una convenzione di denominazione standard basata sulle regioni di
Compute Engine.
Ad esempio, il nome della regione Stati Uniti centrali è us-central1 e il nome della regione Europa occidentale è europe-west1. Esegui il comando gcloud compute regions list per visualizzare un elenco delle regioni disponibili.
Endpoint regionali e di località
Google Cloud Le API possono fornire supporto per endpoint di località e regionali:
Gli endpoint di località garantiscono che i dati in transito rimangano nella località specificata quando vi si accede tramite connettività privata.
Formato:
{location}-{service}.googleapis.comEsempio:
us-central-1-dataproc.googleapis.comGli endpoint regionali garantiscono che i dati in transito rimangano nella località specificata quando vi si accede tramite connettività privata o internet pubblico.
Formato:
{service}.{location}.rep.googleapis.comEsempio:
dataproc.us-central1.rep.googleapis.com
L'endpoint predefinito di Managed Service per Apache Spark è l'endpoint di località. Per gli annunci sul supporto degli endpoint regionali di Managed Service per Apache Spark, consulta le note di rilascio di Managed Service per Apache Spark per.
Crea un cluster
Gcloud CLI
Quando crei un cluster, specifica una regione utilizzando il flag --region obbligatorio.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
API REST
Utilizza il parametro URL REGION in una
clusters.create
per specificare la regione del cluster.
gRPC
Imposta l'indirizzo di trasporto del client sull'endpoint di località utilizzando il seguente pattern:
REGION-dataproc.googleapis.com
Esempio in Python (google-cloud-python):
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Esempio in Java (google-cloud-java):
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Specifica una regione di Managed Service per Apache Spark nella sezione Località del riquadro Configura cluster nella pagina Crea un cluster di Managed Service per Apache Spark nella Google Cloud console.
Passaggi successivi
- Geografia e regioni
- Compute Engine→Regioni e zone
- Compute Engine→Risorse a livello globale, regionale e di zona
- Posizionamento automatico delle zone di Managed Service per Apache Spark