Lorsque vous créez un cluster Managed Service pour Apache Spark, vous spécifiez une région Compute Engine, telle que "us-east1" ou "europe-west1". Managed Service pour Apache Spark isole les ressources du cluster, telles que les instances de VM, Cloud Storage et le stockage de métadonnées, dans une zone de la région spécifiée.
Vous pouvez éventuellement spécifier une zone dans la région de cluster spécifiée, telle que "us-east1-a" ou "europe-west1-b", lorsque vous créez un cluster. Si vous ne spécifiez pas la zone, la fonctionnalité de sélection de zone automatique de Managed Service pour Apache Spark choisit une zone dans la région de cluster spécifiée pour localiser les ressources du cluster.
L'espace de noms régional correspond au /regions/REGION
segment des URI de ressources Managed Service pour Apache Spark (voir, par exemple, le
cluster
networkUri).
Noms de région
Les noms de région suivent une convention d'appellation standard basée sur
les régions Compute Engine.
Par exemple, le nom de la région centrale des États-Unis est us-central1 et celui de l'Europe occidentale est europe-west1. Exécutez la commande gcloud compute regions list pour afficher la liste des régions disponibles.
Points de terminaison locaux et régionaux
Google Cloud Les API peuvent être compatibles avec les points de terminaison locaux et régionaux :
Les points de terminaison locaux garantissent que les données en transit restent dans l'emplacement spécifié lorsqu'elles sont accessibles via une connectivité privée.
Format:
{location}-{service}.googleapis.comExemple :
us-central-1-dataproc.googleapis.comLes points de terminaison régionaux garantissent que les données en transit restent dans l'emplacement spécifié lorsqu'elles sont accessibles via une connectivité privée ou l'Internet public.
Format:
{service}.{location}.rep.googleapis.comExemple :
dataproc.us-central1.rep.googleapis.com
Le point de terminaison Managed Service pour Apache Spark par défaut est un point de terminaison local. Consultez les notes de version de Managed Service pour Apache Spark pour obtenir des annonces sur la compatibilité de Managed Service pour Apache Spark avec les points de terminaison régionaux.
Créer un cluster
Gcloud CLI
Lorsque vous créez un cluster, spécifiez une région à l'aide de l'option obligatoire --region.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
API REST
Utilisez le paramètre d'URL REGION dans une
clusters.create
pour spécifier la région du cluster.
gRPC
Définissez l'adresse de transport du client sur le point de terminaison local à l'aide du modèle suivant :
REGION-dataproc.googleapis.com
Exemple Python (google-cloud-python) :
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Exemple Java (google-cloud-java) :
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Spécifiez une région Managed Service pour Apache Spark dans la section "Location" (Emplacement) du panneau **Set up cluster** (Configurer le cluster) de la page **Create a cluster** (Créer un cluster) de Managed Service pour Apache Spark dans la Google Cloud console.
Étape suivante
- Zones géographiques et régions
- Moteur Compute Engine → Régions et zones
- Compute Engine → Ressources globales, régionales et zonales
- Sélection de zone automatique de Managed Service pour Apache Spark