Cuando creas un clúster de Managed Service para Apache Spark, especificas una región de Compute Engine, como "us-east1" o "europe-west1". El servicio administrado para Apache Spark aislará los recursos del clúster, como las instancias de VM y el almacenamiento de metadatos y Cloud Storage, dentro de una zona de la región especificada.
Cuando creas un clúster, puedes especificar de forma opcional una zona dentro de la región del clúster especificada, como "us-east1-a" o "europe-west1-b". Si no especificas la zona, la ubicación de zona automática del servicio administrado para Apache Spark elegirá una zona dentro de la región del clúster especificada para ubicar los recursos del clúster.
El espacio de nombres regional corresponde al segmento /regions/REGION de los URIs de recursos de Servicio administrado para Apache Spark (consulta, por ejemplo, el clúster networkUri).
Nombres de las regiones
Los nombres de región siguen una convención de nomenclatura estándar basada en las regiones de Compute Engine.
Por ejemplo, el nombre de la región central de EE.UU. es us-central1 y el nombre de la región de Europa Occidental es europe-west1. Ejecuta el comando gcloud compute regions list para ver una lista de las regiones disponibles.
Extremos regionales y de ubicación
Las APIs deGoogle Cloud pueden proporcionar compatibilidad con endpoints regionales y de ubicación:
Los extremos geográficos garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada.
Formato:
{location}-{service}.googleapis.comEjemplo:
us-central-1-dataproc.googleapis.comLos endpoints regionales garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada o Internet pública.
Formato:
{service}.{location}.rep.googleapis.comEjemplo:
dataproc.us-central1.rep.googleapis.com
El extremo predeterminado del servicio administrado para Apache Spark es el extremo de ubicación. Consulta las notas de la versión del servicio administrado para Apache Spark para ver los anuncios sobre la compatibilidad del servicio administrado para Apache Spark con los extremos regionales.
Crea un clúster
gcloud CLI
Cuando creas un clúster, especifica una región con la marca obligatoria --region.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
API de REST
Usa el parámetro de URL REGION en una solicitud clusters.create para especificar la región del clúster.
gRPC
Establece la dirección de transporte del cliente en el extremo de ubicación con el siguiente patrón:
REGION-dataproc.googleapis.com
Ejemplo de Python (google-cloud-python):
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Ejemplo de Java (google-cloud-java):
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Especifica una región de Managed Service for Apache Spark en la sección Ubicación del panel Configurar clúster en la página Crear un clúster de Managed Service for Apache Spark en la Google Cloud consola.
¿Qué sigue?
- Geografía y regiones
- Motor de Compute Engine→Regiones y zonas
- Compute Engine→Recursos globales, regionales y zonales
- Colocación automática de zonas de Managed Service for Apache Spark