Wenn Sie einen Dataproc-Cluster erstellen, geben Sie eine Compute Engine-Region an, z. B. „us-east1“ oder „europe-west1“. Dataproc isoliert Clusterressourcen wie VM-Instanzen, Cloud Storage und Metadatenspeicher innerhalb einer Zone in der angegebenen Region.
Sie können beim Erstellen eines Clusters optional eine Zone in der angegebenen Clusterregion angeben, z. B. „us-east1-a“ oder „europe-west1-b“. Wenn Sie die Zone nicht angeben, wählt die automatische Zonenplatzierung in Dataproc eine Zone innerhalb der angegebenen Clusterregion aus, in der die Clusterressourcen platziert werden.
Der regionale Namespace entspricht dem Segment /regions/REGION der Dataproc-Ressourcen-URIs (siehe z. B. den Cluster networkUri).
Namen von Regionen
Namen von Regionen folgen einer Standard-Namenskonvention basierend auf Compute Engine-Regionen.
Beispiel: Der Name für die zentrale Region der USA lautet us-central1 und der Name der Region Westeuropa ist europe-west1. Führen Sie den Befehl gcloud compute regions list aus, um eine Liste der verfügbaren Regionen anzuzeigen.
Standort- und regionale Endpunkte
Google Cloud APIs können standortbezogene und regionale Endpunkte unterstützen:
Standortendpunkte sorgen dafür, dass Daten bei der Übertragung am angegebenen Standort verbleiben, wenn über eine private Verbindung darauf zugegriffen wird.
Format:
{location}-{service}.googleapis.comBeispiel:
us-central-1-dataproc.googleapis.comRegionale Endpunkte sorgen dafür, dass Daten bei der Übertragung am angegebenen Standort verbleiben, wenn über eine private Verbindung oder das öffentliche Internet darauf zugegriffen wird.
Format:
{service}.{location}.rep.googleapis.comBeispiel:
dataproc.us-central1.rep.googleapis.com
Der Standard-Dataproc-Endpunkt ist der Standortendpunkt. In den Dataproc-Versionshinweisen finden Sie Informationen zur Unterstützung regionaler Endpunkte in Dataproc.
Cluster erstellen
gcloud-CLI
Wenn Sie einen Cluster erstellen, geben Sie mit dem erforderlichen Flag --region eine Region an.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
REST API
Verwenden Sie den URL-Parameter REGION in einer clusters.create-Anfrage, um die Clusterregion anzugeben.
gRPC
Legen Sie die Client-Transportadresse mit dem folgenden Muster auf den Standortendpunkt fest:
REGION-dataproc.googleapis.com
Python (google-cloud-python) Beispiel:
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Java (google-cloud-java) Beispiel:
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Geben Sie in der Google Cloud Console auf der Dataproc-Seite Cluster erstellen im Bereich Cluster einrichten eine Dataproc-Region an.
Nächste Schritte
- Geografie und Regionen
- Compute Engine → Regionen und Zonen
- Compute Engine → Globale, regionale und zonale Ressourcen
- Automatische Zonenplatzierung in Dataproc