Cuando creas un clúster de Managed Service para Apache Spark, especificas una región de Compute Engine, como “us-east1” o “europe-west1”. Managed Service para Apache Spark aislará los recursos del clúster, como las instancias de VM y Cloud Storage, y el almacenamiento de metadatos, dentro de una zona de la región especificada.
Como opción, puedes especificar una zona dentro de la región del clúster especificada, como “us-east1-a” o “europe-west1-b”, cuando creas un clúster. Si no especificas la zona, la ubicación de zona automática de Managed Service para Apache Spark elegirá una zona dentro de la región del clúster especificada para ubicar los recursos del clúster.
El espacio de nombres regional corresponde al /regions/REGION
segmento de los URI de recursos de Managed Service para Apache Spark (consulta, por ejemplo, el
clúster
networkUri).
Nombres de región
Los nombres de región siguen una convención de nombres estándar basada en
las regiones de Compute Engine.
Por ejemplo, el nombre de la región central de EE.UU. es us-central1 y el nombre de la región de Europa Occidental es europe-west1. Ejecuta el comando gcloud compute regions list para ver una lista de las regiones disponibles.
Ubicación y extremos regionales
Google Cloud Las APIs pueden proporcionar compatibilidad con extremos geográficos y regionales:
Los extremos geográficos garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada.
Formato:
{location}-{service}.googleapis.comEjemplo:
us-central-1-dataproc.googleapis.comLos extremos regionales garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada o de Internet pública.
Formato:
{service}.{location}.rep.googleapis.comEjemplo:
dataproc.us-central1.rep.googleapis.com
El extremo predeterminado de Managed Service para Apache Spark es el extremo de ubicación. Consulta las notas de la versión de Managed Service para Apache Spark para obtener anuncios sobre la compatibilidad de Managed Service para Apache Spark con extremos regionales.
Crea un clúster
gcloud CLI
Cuando creas un clúster, especifica una región con la marca obligatoria --region.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
API de REST
Usa el parámetro de URL REGION en una
clusters.create
para especificar la región del clúster.
gRPC
Establece la dirección de transporte del cliente en el extremo geográfico con el siguiente patrón:
REGION-dataproc.googleapis.com
Ejemplo de Python (google-cloud-python):
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Ejemplo de Java (google-cloud-java):
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Especifica una región de Managed Service para Apache Spark en la sección Ubicación del panel Configurar clúster en la página Crear un clúster de Managed Service para Apache Spark en la Google Cloud consola.
¿Qué sigue?
- Geografía y regiones
- Motor de Compute Engine→Regiones y zonas
- Compute Engine→Recursos globales, regionales y zonales
- Ubicación de zona automática de Managed Service para Apache Spark