Managed Service for Apache Spark-Cluster erstellen
Voraussetzungen:
Name:Der Clustername muss mit einem Kleinbuchstaben beginnen, gefolgt von bis zu 51 Kleinbuchstaben, Ziffern und Bindestrichen. Das letzte Zeichen darf kein Bindestrich sein.
Clusterregion:Sie müssen eine Compute Engine-Region für den Cluster angeben, z. B.
us-east1odereurope-west1, um Clusterressourcen wie VM-Instanzen und in Cloud Storage gespeicherte Clustermetadaten innerhalb der Region zu isolieren.- Weitere Informationen zu Compute Engine-Regionen finden Sie unter Clusterregion.
- Informationen zum Auswählen von Regionen finden Sie unter Verfügbare Regionen und Zonen. Sie können auch den Befehl
gcloud compute regions listausführen, um eine Liste der verfügbaren Regionen anzuzeigen.
Konnektivität: Die Compute Engine-VM-Instanzen (VMs) in einem Managed Service for Apache Spark-Cluster, die aus Master- und Worker-VMs bestehen, müssen uneingeschränkten internen IP-Netzwerkzugriff aufeinander haben. Das
defaultVPC-Netzwerk bietet diese Verbindung (siehe Netzwerkkonfiguration für Managed Service for Apache Spark-Cluster).
gcloud
Führen Sie zum Erstellen eines Managed Service for Apache Spark-Clusters in der Befehlszeile den Befehl gcloud dataproc clusters create lokal in einem Terminalfenster oder in Cloud Shellaus.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION
Der Befehl erstellt einen Cluster mit standardmäßigen Managed Service for Apache Spark-Diensteinstellungen für Ihre Master- und Worker-VM-Instanzen, Laufwerksgrößen und ‑typen, Netzwerktyp, Region und Zone, in der Ihr Cluster bereitgestellt wird, und andere Clustereinstellungen. Weitere Informationen dazu, wie Sie mit Befehlszeilen-Flags Clustereinstellungen anpassen können, finden Sie im Befehl gcloud dataproc clusters create.
Cluster mit einer YAML-Datei erstellen
- Führen Sie den folgenden
gcloud-Befehl aus, um die Konfiguration eines vorhandenen Managed Service for Apache Spark-Clusters in eine Dateicluster.yamlzu exportieren.gcloud dataproc clusters export EXISTING_CLUSTER_NAME \ --region=REGION \ --destination=cluster.yaml
- Erstellen Sie einen neuen Cluster. Dazu importieren Sie die Konfiguration der YAML-Datei.
gcloud dataproc clusters import NEW_CLUSTER_NAME \ --region=REGION \ --source=cluster.yaml
Hinweis:Während des Exportvorgangs werden clusterspezifische Felder (z. B. der Clustername), Nur-Ausgabe-Felder und automatisch angewendete Labels gefiltert. Diese Felder sind in der importierten YAML-Datei, die zum Erstellen eines Clusters verwendet wurde, nicht zulässig.
der Managed Service for Apache Spark Google Cloud Konsole klicken, damit die Konsole eine äquivalente API REST-Anfrage oder den Befehlgcloud zur Verwendung in Ihrem Code oder von der Befehlszeile zum Erstellen eines Clusters erstellt.
REST
In diesem Abschnitt wird erläutert, wie Sie einen Cluster mit erforderlichen Werten und der Standardkonfiguration (1 Hauptcluster, 2 Worker) erstellen.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- CLUSTER_NAME: Clustername
- PROJECT: Google Cloud Projekt-ID
- REGION: Eine verfügbare Compute Engine Region, in der der Cluster erstellt wird.
- ZONE: Eine optionale Zone innerhalb der ausgewählten Region, in der der Cluster erstellt wird.
HTTP-Methode und URL:
POST https://dataproc.googleapis.com/v1/projects/PROJECT/regions/REGION/clusters
JSON-Text anfordern:
{
"project_id":"PROJECT",
"cluster_name":"CLUSTER_NAME",
"config":{
"master_config":{
"num_instances":1,
"machine_type_uri":"n1-standard-2",
"image_uri":""
},
"softwareConfig": {
"imageVersion": "",
"properties": {},
"optionalComponents": []
},
"worker_config":{
"num_instances":2,
"machine_type_uri":"n1-standard-2",
"image_uri":""
},
"gce_cluster_config":{
"zone_uri":"ZONE"
}
}
}
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{
"name": "projects/PROJECT/regions/REGION/operations/b5706e31......",
"metadata": {
"@type": "type.googleapis.com/google.cloud.dataproc.v1.ClusterOperationMetadata",
"clusterName": "CLUSTER_NAME",
"clusterUuid": "5fe882b2-...",
"status": {
"state": "PENDING",
"innerState": "PENDING",
"stateStartTime": "2019-11-21T00:37:56.220Z"
},
"operationType": "CREATE",
"description": "Create cluster with 2 workers",
"warnings": [
"For PD-Standard without local SSDs, we strongly recommend provisioning 1TB ...""
]
}
}
Console
Öffnen Sie die Seite Cluster erstellen für Managed Service for Apache Spark in der Google Cloud Konsole in Ihrem Browser und klicken Sie dann auf der Seite Dataproc-Cluster in Compute Engine erstellen in der Zeile Cluster in Compute Engine auf Erstellen. Der Bereich Cluster einrichten wird mit Feldern ausgewählt, die mit Standardwerten gefüllt sind. Sie können jedes Feld auswählen und Standardwerte prüfen oder ändern, um den Cluster anzupassen.
Klicken Sie auf Erstellen , um den Cluster zu erstellen. Der Clustername wird auf der Seite Cluster angezeigt und sein Status wird in „Aktiv“ aktualisiert, nachdem der Cluster bereitgestellt wurde. Klicken Sie auf den Clusternamen, um die Seite „Clusterdetails“ zu öffnen. Hier können Sie Jobs, Instanzen und Konfigurationseinstellungen für den Cluster überprüfen und eine Verbindung zu den Weboberflächen herstellen, die auf Ihrem Cluster ausgeführt werden.
Go
- Installieren Sie die Clientbibliothek.
- Richten Sie Standardanmeldedaten für Anwendungen ein.
- Führen Sie den Code aus.
Java
- Installieren Sie die Clientbibliothek.
- Richten Sie Standardanmeldedaten für Anwendungen ein.
- Führen Sie den Code aus.
Node.js
- Installieren Sie die Clientbibliothek.
- Richten Sie Standardanmeldedaten für Anwendungen ein.
- Führen Sie den Code aus.
Python
- Installieren Sie die Clientbibliothek.
- Richten Sie Standardanmeldedaten für Anwendungen ein.
- Führen Sie den Code aus.