Región del clúster

Cuando creas un clúster de Managed Service para Apache Spark, especificas una región de Compute Engine, como “us-east1” o “europe-west1”. Managed Service para Apache Spark aislará los recursos del clúster, como las instancias de VM y Cloud Storage, y el almacenamiento de metadatos, dentro de una zona de la región especificada.

Como opción, puedes especificar una zona dentro de la región del clúster especificada, como “us-east1-a” o “europe-west1-b”, cuando creas un clúster. Si no especificas la zona, la ubicación de zona automática de Managed Service para Apache Spark elegirá una zona dentro de la región del clúster especificada para ubicar los recursos del clúster.

El espacio de nombres regional corresponde al /regions/REGION segmento de los URI de recursos de Managed Service para Apache Spark (consulta, por ejemplo, el clúster networkUri).

Nombres de región

Los nombres de región siguen una convención de nombres estándar basada en las regiones de Compute Engine. Por ejemplo, el nombre de la región central de EE.UU. es us-central1 y el nombre de la región de Europa Occidental es europe-west1. Ejecuta el comando gcloud compute regions list para ver una lista de las regiones disponibles.

Ubicación y extremos regionales

Google Cloud Las APIs pueden proporcionar compatibilidad con extremos geográficos y regionales:

  • Los extremos geográficos garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada.

    Formato: {location}-{service}.googleapis.com

    Ejemplo: us-central-1-dataproc.googleapis.com

  • Los extremos regionales garantizan que los datos en tránsito permanezcan en la ubicación especificada cuando se accede a ellos a través de la conectividad privada o de Internet pública.

    Formato: {service}.{location}.rep.googleapis.com

    Ejemplo: dataproc.us-central1.rep.googleapis.com

El extremo predeterminado de Managed Service para Apache Spark es el extremo de ubicación. Consulta las notas de la versión de Managed Service para Apache Spark para obtener anuncios sobre la compatibilidad de Managed Service para Apache Spark con extremos regionales.

Crea un clúster

gcloud CLI

Cuando creas un clúster, especifica una región con la marca obligatoria --region.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    other args ...

API de REST

Usa el parámetro de URL REGION en una clusters.create para especificar la región del clúster.

gRPC

Establece la dirección de transporte del cliente en el extremo geográfico con el siguiente patrón:

REGION-dataproc.googleapis.com

Ejemplo de Python (google-cloud-python):

from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport

transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
    address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)

project_id = 'my-project'
region = 'us-central1'
cluster = {...}

Ejemplo de Java (google-cloud-java):

ClusterControllerSettings settings =
     ClusterControllerSettings.newBuilder()
        .setEndpoint("us-central1-dataproc.googleapis.com:443")
        .build();
 try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
   String projectId = "my-project";
   String region = "us-central1";
   Cluster cluster = Cluster.newBuilder().build();
   Cluster response =
       clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
 }

Console

Especifica una región de Managed Service para Apache Spark en la sección Ubicación del panel Configurar clúster en la página Crear un clúster de Managed Service para Apache Spark en la Google Cloud consola.

¿Qué sigue?