Région du cluster

Lorsque vous créez un cluster Managed Service pour Apache Spark, vous spécifiez une région Compute Engine, telle que "us-east1" ou "europe-west1". Managed Service pour Apache Spark isole les ressources du cluster, telles que les instances de VM, Cloud Storage et le stockage de métadonnées, dans une zone de la région spécifiée.

Vous pouvez éventuellement spécifier une zone dans la région de cluster spécifiée, telle que "us-east1-a" ou "europe-west1-b", lorsque vous créez un cluster. Si vous ne spécifiez pas la zone, la fonctionnalité de sélection de zone automatique de Managed Service pour Apache Spark choisit une zone dans la région de cluster spécifiée pour localiser les ressources du cluster.

L'espace de noms régional correspond au /regions/REGION segment des URI de ressources Managed Service pour Apache Spark (voir, par exemple, le cluster networkUri).

Noms de région

Les noms de région suivent une convention d'appellation standard basée sur les régions Compute Engine. Par exemple, le nom de la région centrale des États-Unis est us-central1 et celui de l'Europe occidentale est europe-west1. Exécutez la commande gcloud compute regions list pour afficher la liste des régions disponibles.

Points de terminaison locaux et régionaux

Google Cloud Les API peuvent être compatibles avec les points de terminaison locaux et régionaux :

  • Les points de terminaison locaux garantissent que les données en transit restent dans l'emplacement spécifié lorsqu'elles sont accessibles via une connectivité privée.

    Format: {location}-{service}.googleapis.com

    Exemple : us-central-1-dataproc.googleapis.com

  • Les points de terminaison régionaux garantissent que les données en transit restent dans l'emplacement spécifié lorsqu'elles sont accessibles via une connectivité privée ou l'Internet public.

    Format: {service}.{location}.rep.googleapis.com

    Exemple : dataproc.us-central1.rep.googleapis.com

Le point de terminaison Managed Service pour Apache Spark par défaut est un point de terminaison local. Consultez les notes de version de Managed Service pour Apache Spark pour obtenir des annonces sur la compatibilité de Managed Service pour Apache Spark avec les points de terminaison régionaux.

Créer un cluster

Gcloud CLI

Lorsque vous créez un cluster, spécifiez une région à l'aide de l'option obligatoire --region.

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    other args ...

API REST

Utilisez le paramètre d'URL REGION dans une clusters.create pour spécifier la région du cluster.

gRPC

Définissez l'adresse de transport du client sur le point de terminaison local à l'aide du modèle suivant :

REGION-dataproc.googleapis.com

Exemple Python (google-cloud-python) :

from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport

transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
    address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)

project_id = 'my-project'
region = 'us-central1'
cluster = {...}

Exemple Java (google-cloud-java) :

ClusterControllerSettings settings =
     ClusterControllerSettings.newBuilder()
        .setEndpoint("us-central1-dataproc.googleapis.com:443")
        .build();
 try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
   String projectId = "my-project";
   String region = "us-central1";
   Cluster cluster = Cluster.newBuilder().build();
   Cluster response =
       clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
 }

Console

Spécifiez une région Managed Service pour Apache Spark dans la section "Location" (Emplacement) du panneau **Set up cluster** (Configurer le cluster) de la page **Create a cluster** (Créer un cluster) de Managed Service pour Apache Spark dans la Google Cloud console.

Étape suivante