In diesem Dokument werden häufige Fehlermeldungen bei der Clustererstellung erläutert und es werden Tipps zur Fehlerbehebung bei Problemen mit der Clustererstellung gegeben.
Häufige Fehlermeldungen bei der Clustererstellung
User not authorized to act as service account
Ursache: Der Prinzipal, der versucht, den Dataproc-Cluster zu erstellen, hat nicht die erforderlichen Berechtigungen, um das angegebene Dienstkonto zu verwenden. Dataproc-Nutzer benötigen die Berechtigung für das Dienstkonto
ActAs, um Dataproc-Ressourcen bereitzustellen. Diese Berechtigung ist in der Rolle Dienstkontonutzer (roles/iam.serviceAccountUser) enthalten (siehe Dataproc-Rollen).Lösung: Ermitteln Sie den Nutzer oder das Dienstkonto, das versucht, den Dataproc-Cluster zu erstellen. Weisen Sie diesem Prinzipal die Rolle Dienstkontonutzer (
roles/iam.serviceAccountUser) für das Dienstkonto zu, das der Cluster verwenden soll (in der Regel das Dataproc-VM-Dienstkonto).Operation timed out: Only 0 out of 2 minimum required datanodes/node managers running.
Ursache: Der Controllerknoten kann den Cluster nicht erstellen, da er nicht mit Worker-Knoten kommunizieren kann.
Lösung:
- Überprüfen Sie die Warnungen für Firewallregeln.
- Prüfen Sie, ob die richtigen Firewallregeln vorhanden sind. Weitere Informationen finden Sie unter Übersicht über die Standard-Dataproc-Firewallregeln.
- Führen Sie in der Google Cloud Console einen Konnektivitätstest durch, um zu ermitteln, was die Kommunikation zwischen den Controller- und Worker-Knoten blockiert.
Required
compute.subnetworks.usepermission forprojects/{projectId}/regions/{region}/subnetworks/{subnetwork}Ursache: Dieser Fehler kann auftreten, wenn Sie versuchen, einen Dataproc Cluster mit einem VPC-Netzwerk in einem anderen Projekt einzurichten und das Dataproc Dienstkonto Dienst-Agent nicht die erforderlichen Berechtigungen für das freigegebene VPC -Projekt hat, in dem das Netzwerk gehostet wird.
Lösung: Führen Sie die unter Cluster erstellen, der ein VPC-Netzwerk in einem anderen Projekt verwendet aufgeführten Schritten aus.
The zone
projects/zones/{zone}does not have enough resources available to fulfill the request(resource type:compute)Ursache: Die Zone, die zum Erstellen des Clusters verwendet wird, hat nicht genügend Ressourcen.
Lösung:
- Verwenden Sie das Dataproc Feature zur automatischen Zonenplatzierung, um den Cluster in einer beliebigen Zone einer Region mit verfügbaren Ressourcen zu erstellen.
- Erstellen Sie den Cluster in einer anderen Zone.
Fehler bei Kontingentüberschreitung
Unzureichendes CPUS-/CPUS_ALL_REGIONS-Kontingent
Unzureichendes Kontingent "DISKS_SUM_GB"
Unzureichendes Kontingent "IN_USE_ADDRESSES"Ursache: Ihre CPU, Laufwerk, oder IP-Adressanfrage überschreitet das verfügbare Kontingent.
Lösung: Fordern Sie in der Google Cloud Console ein zusätzliches Kontingent an.
Initialisierungsaktion fehlgeschlagen
Ursache: Die während der Clustererstellung angegebene Initialisierungsaktion konnte nicht installiert werden.
Lösung:
- Siehe Überlegungen und Richtlinien für Initialisierungsaktionen.
- Untersuchen Sie die Ausgabelogs. Die Fehlermeldung sollte einen Link zu den Logs in Cloud Storage enthalten.
Failed to initialize node
CLUSTER-NAME-m. ... See output in:<gs://PATH_TO_STARTUP_SCRIPT_OUTPUT>Ursache: Der Controllerknoten des Dataproc-Clusters konnte nicht initialisiert werden.
Lösung:
- Prüfen Sie die Ausgabelogs des Startskripts, die in der Fehlermeldung aufgeführt sind
(
gs://PATH_TO_STARTUP_SCRIPT_OUTPUT) und ermitteln Sie die Ursache für die fehlgeschlagene Knoteninitialisierung. - Ursachen können Probleme mit der Netzwerkkonfiguration des Dataproc-Clusters und eine fehlgeschlagene Installation von Python-Paketabhängigkeiten sein.
- Wenn das Problem nach dem Prüfen der Startskriptlogs nicht behoben ist, beheben Sie alle Probleme auf Nutzerseite und versuchen Sie es dann noch einmal mit exponentiellem Backoff. Wenden Sie sich an den Google Cloud-Support.
- Prüfen Sie die Ausgabelogs des Startskripts, die in der Fehlermeldung aufgeführt sind
(
Cluster creation failed: IP address space exhausted
Ursache: Der für die Bereitstellung der angeforderten Clusterknoten erforderliche IP-Adressbereich ist nicht verfügbar.
Lösung:
- Erstellen Sie einen Cluster mit weniger Worker-Knoten, aber einem größeren Maschinentyp.
- Erstellen Sie einen Cluster in einem anderen Subnetzwerk oder Netzwerk.
- Reduzieren Sie die Nutzung des Netzwerks, um IP-Adressbereich freizugeben.
- Warten Sie, bis im Netzwerk genügend IP-Adressbereich verfügbar ist.
Initialization script error message: The repository REPO_NAME no longer has a Release file
Ursache: Das Debian-Backports-Repository für die alte stabile Version wurde gelöscht.
Lösung:
Fügen Sie den folgenden Code vor dem Code ein, der
apt-getin Ihrem Initialisierungsskript ausführt.oldstable=$(curl -s https://deb.debian.org/debian/dists/oldstable/Release | awk '/^Codename/ {print $2}'); stable=$(curl -s https://deb.debian.org/debian/dists/stable/Release | awk '/^Codename/ {print $2}'); matched_files="$(grep -rsil '\-backports' /etc/apt/sources.list*)" if [[ -n "$matched_files" ]]; then for filename in "$matched_files"; do grep -e "$oldstable-backports" -e "$stable-backports" "$filename" || \ sed -i -e 's/^.*-backports.*$//' "$filename" done fiTimeout waiting for instance
DATAPROC_CLUSTER_VM_NAMEto report in oder Network is unreachable:dataproccontrol-REGION.googleapis.comUrsache: Diese Fehlermeldungen weisen darauf hin, dass die Netzwerkeinrichtung Ihres Dataproc-Clusters unvollständig ist. Möglicherweise fehlt die Route zum Standard-Internetgateway oder zu Firewallregeln.
Lösung:
Zur Fehlerbehebung können Sie die folgenden Konnektivitätstests erstellen:
- Erstellen Sie einen Konnektivitätstest zwischen zwei Dataproc-Cluster-VMs. Anhand des Ergebnisses dieses Tests können Sie feststellen, ob die Firewallregeln für eingehenden und ausgehenden Traffic Ihres Netzwerks korrekt auf die Cluster-VMs angewendet werden.
- Erstellen Sie einen Konnektivitätstest zwischen einer Dataproc-Cluster-VM und einer aktuellen Dataproc Control API IP-Adresse. Verwenden Sie den folgenden Befehl, um eine aktuelle IP-Adresse der Dataproc Control API abzurufen:
dig dataproccontrol-REGION.googleapis.com A
Verwenden Sie eine der IPv4-Adressen im Antwortbereich der Ausgabe.
Anhand des Ergebnisses des Konnektivitätstests können Sie feststellen, ob die Route zum Standard-Internetgateway und die Firewall für ausgehenden Traffic richtig konfiguriert sind.
Basierend auf den Ergebnissen der Konnektivitätstests:
- Fügen Sie Ihrem Cluster-VPC-Netzwerk eine Route zum Internet hinzu:
0.0.0.0/0für IPv4 und::/0für IPv6 mit--next-hop-gateway=default-internet-gateway. - Fügen Sie Firewallregeln für die Zugriffssteuerung hinzu.
Fehler aufgrund von Update
Ursache: Der Cluster hat einen Job akzeptiert, der an den Dataproc Dienst gesendet wurde, konnte aber nicht manuell oder durch Autoscaling skaliert werden. Dieser Fehler kann auch durch eine nicht standardmäßige Clusterkonfiguration verursacht werden.
Lösung:
Cluster zurücksetzen: Erstellen Sie ein Supportticket, fügen Sie eine Diagnosedatei im TAR-Format hinzu und bitten Sie darum, den Cluster auf den Status „WIRD AUSGEFÜHRT“ zurückzusetzen.
Neuer Cluster: Erstellen Sie den Cluster mit derselben Konfiguration neu. Diese Lösung kann schneller sein als ein vom Support bereitgestelltes Zurücksetzen.
Tipps zur Fehlerbehebung bei Clustern
In diesem Abschnitt finden Sie weitere Anleitungen zur Fehlerbehebung bei häufigen Problemen, die die Erstellung von Dataproc-Clustern verhindern können.
Wenn die Bereitstellung eines Dataproc-Clusters fehlschlägt, wird häufig
eine allgemeine Fehlermeldung angezeigt oder der Status PENDING oder PROVISIONING gemeldet,
bevor der Vorgang fehlschlägt. Um Probleme mit Clusterfehlern zu diagnostizieren und zu beheben
müssen Sie die Clusterlogs prüfen und häufige Fehlerpunkte bewerten.
Häufige Symptome
Die folgenden Symptome treten häufig bei Fehlern bei der Clustererstellung auf:
- Der Clusterstatus bleibt für längere Zeit
PENDINGoderPROVISIONING. - Der Cluster wechselt in den Status
ERROR. - Allgemeine API-Fehler bei der Clustererstellung, z. B.
Operation timed out. Protokollierte Fehlermeldungen oder API-Antwortfehlermeldungen, z. B.:
RESOURCE_EXHAUSTED: bezieht sich auf CPU-, Laufwerk- oder IP-AdresskontingenteInstance failed to startPermission deniedUnable to connect to service_name.googleapis.comoderCould not reach required Google APIsConnection refusedodernetwork unreachable- Fehler im Zusammenhang mit fehlgeschlagenen Initialisierungsaktionen, z. B. Skriptausführungsfehler und „Datei nicht gefunden“.
Clusterlogs prüfen
Ein wichtiger erster Schritt bei der Diagnose von Fehlern bei der Clustererstellung ist die Prüfung der detaillierten Clusterlogs in Cloud Logging.
- Rufen Sie den Log-Explorer auf: Öffnen Sie den Log-Explorer in der Google Cloud Console.
- Nach Dataproc-Clustern filtern:
- Wählen Sie im Drop-down-Menü Ressource die Option
Cloud Dataproc Clusteraus. - Geben Sie
cluster_nameundproject_idein. Sie können auch nachlocation(Region) filtern.
- Wählen Sie im Drop-down-Menü Ressource die Option
- Logeinträge prüfen:
- Suchen Sie nach Meldungen der Stufe
ERRORoderWARNING, die kurz nach dem Fehler bei der Clustererstellung auftreten. - Achten Sie auf Logs von
master-startup,worker-startup- undagentKomponenten, um Informationen zu Problemen auf VM-Ebene oder mit dem Dataproc Agent zu erhalten. - Wenn Sie Informationen zu Problemen mit der VM-Startzeit erhalten möchten,
filtern Sie die Logs nach
resource.type="gce_instance"und suchen Sie nach Meldungen von den Instanznamen, die mit Ihren Clusterknoten verknüpft sind, z. B.CLUSTER_NAME-moderCLUSTER_NAME-w-0. Serielle Konsolenlogs können Probleme mit der Netzwerkkonfiguration, Festplatten probleme und Skriptfehler aufdecken, die früh im VM-Lebenszyklus auftreten.
- Suchen Sie nach Meldungen der Stufe
Häufige Ursachen für Clusterfehler und Tipps zur Fehlerbehebung
In diesem Abschnitt werden häufige Gründe für das Fehlschlagen der Dataproc-Cluster erstellung aufgeführt und Tipps zur Fehlerbehebung bei Clusterfehlern gegeben.
Unzureichende IAM-Berechtigungen
Das VM-Dienstkonto das von Ihrem Dataproc-Cluster verwendet wird, muss die entsprechenden IAM-Rollen haben, um Compute Engine-Instanzen bereitzustellen, auf Cloud Storage Buckets zuzugreifen, Logs zu schreiben und mit anderen Google Cloud Diensten zu interagieren.
- Erforderliche Worker-Rolle: Prüfen Sie, ob das VM-Dienstkonto die
Dataproc-Worker
-Rolle (
roles/dataproc.worker) hat. Diese Rolle hat die Mindestberechtigungen, die für Dataproc zum Verwalten von Clusterressourcen erforderlich sind. - Berechtigungen für den Datenzugriff: Wenn Ihre Jobs Daten aus
Cloud Storage oder BigQuery lesen oder in diese schreiben, benötigt das Dienstkonto
entsprechende Rollen, z. B.
Storage Object Viewer,Storage Object Creator, oderStorage Object Adminfür Cloud Storage, oderBigQuery Data VieweroderBigQuery Editorfür BigQuery. - Berechtigungen für das Logging: Das Dienstkonto muss eine Rolle mit den Berechtigungen
haben, die zum Schreiben von Logs in Cloud Logging erforderlich sind, z. B. die Rolle
Logging Writer.
Tipps zur Fehlerbehebung:
Dienstkonto ermitteln: Ermitteln Sie das VM-Dienstkonto das von Ihrem Cluster verwendet wird. Wenn nicht angegeben, ist das Compute Engine-Standarddienstkonto die Standardeinstellung.
IAM-Rollen prüfen: Rufen Sie in der Google Cloud Console die Seite IAM & Verwaltung > IAM auf, suchen Sie nach dem VM-Dienstkonto des Clusters und prüfen Sie dann, ob es die erforderlichen Rollen für Clusteroperationen hat. Weisen Sie alle fehlenden Rollen zu.
Ressourcenkontingente überschritten
Dataproc-Cluster verbrauchen Ressourcen aus Compute Engine und anderen Google Cloud Diensten. Das Überschreiten von Projekt- oder regionalen Kontingenten kann zu Fehlern bei der Clustererstellung führen.
- Häufige Dataproc-Kontingente, die geprüft werden müssen:
CPUs(regional)DISKS_TOTAL_GB(regional)IN_USE_ADDRESSES(regional für interne IPs, global für externe IPs)- Dataproc API-Kontingente, z. B.
ClusterOperationRequestsPerMinutePerProjectPerRegion
Tipps zur Fehlerbehebung:
- Kontingente prüfen: Rufen Sie in der Google Cloud Console die Seite IAM & Verwaltung > IAM auf. Filtern Sie nach „Dienst“ für „Compute Engine API“ und „Dataproc API“.
- Nutzung im Vergleich zum Limit prüfen: Ermitteln Sie alle Kontingente, die das Limit erreicht haben oder fast erreicht haben.
- Fordern Sie bei Bedarf eine Kontingenterhöhung an.
Probleme mit der Netzwerkkonfiguration
Probleme mit der Netzwerkkonfiguration, z. B. eine falsche VPC-Netzwerk-, Subnetz-, Firewall- oder DNS-Konfiguration, sind eine häufige Ursache für Fehler bei der Clustererstellung. Clusterinstanzen müssen miteinander und mit Google APIs kommunizieren können.
- VPC-Netzwerk und Subnetz:
- Prüfen Sie, ob das VPC-Netzwerk und das Subnetz des Clusters vorhanden und richtig konfiguriert sind.
- Prüfen Sie, ob das Subnetz einen ausreichenden Bereich verfügbarer IP-Adressen hat.
- Privater Google-Zugriff (Private Google Access, PGA): Wenn Cluster-VMs interne IP-Adressen haben und Google APIs für Cloud Storage, Cloud Logging und andere Vorgänge erreichen müssen, prüfen Sie, ob der private Google-Zugriff für das Subnetz aktiviert ist. Standardmäßig werden bei Dataproc-Clustern, die mit Image-Versionen ab 2.2 erstellt wurden, VMs mit ausschließlich internen IP-Adressen bereitgestellt, wobei der private Google-Zugriff für das regionale Subnetz des Clusters aktiviert ist.
- Private Service Connect
(PSC): Wenn Sie
Private Service Connect verwenden, um auf Google
APIs zuzugreifen, prüfen Sie, ob die erforderlichen
Private Service Connect-Endpunkte
für die Google APIs, von denen Dataproc
abhängt, richtig konfiguriert sind, z. B.
dataproc.googleapis.com,storage.googleapis.com,compute.googleapis.comundlogging.googleapis.com. DNS-Einträge für die APIs müssen in private IP-Adressen aufgelöst werden. Beachten Sie, dass die Verwendung von Private Service Connect die Verwendung von VPC-Peering für die Kommunikation mit anderen vom Kunden verwalteten VPC-Netzwerken nicht überflüssig macht. - VPC-Peering: Wenn Ihr Cluster mit Ressourcen in anderen VPC-Netzwerken kommuniziert, z. B. mit Hostprojekten für freigegebene VPCs oder anderen Kunden-VPCs, prüfen Sie, ob das VPC-Peering richtig konfiguriert ist und Routen weitergegeben werden.
Firewallregeln:
- Standardregeln: Prüfen Sie, ob die Standard-Firewallregeln, z. B.
allow-internaloderallow-ssh, nicht zu restriktiv sind. Benutzerdefinierte Regeln: Wenn benutzerdefinierte Firewallregeln vorhanden sind, prüfen Sie, ob sie die erforderlichen Kommunikationspfade zulassen:
- Interne Kommunikation innerhalb des Clusters (zwischen -m und -w Knoten).
Ausgehender Traffic von Cluster-VMs zu Google APIs über öffentliche IPs oder ein Internetgateway, privaten Google-Zugriff oder Private Service Connect-Endpunkte.
Traffic zu externen Datenquellen oder Diensten, von denen Ihre Jobs abhängen.
- Standardregeln: Prüfen Sie, ob die Standard-Firewallregeln, z. B.
DNS-Auflösung: Prüfen Sie, ob Clusterinstanzen DNS Namen für Google APIs und alle internen oder externen Dienste korrekt auflösen können.
Tipps zur Fehlerbehebung:
- Netzwerkkonfiguration prüfen: Prüfen Sie die VPC-Netzwerk- und Subnetzeinstellungen, in denen der Cluster bereitgestellt wird.
- Firewallregeln prüfen: Prüfen Sie die Firewallregeln im VPC-Netzwerk oder im Hostprojekt der freigegebenen VPC.
- Verbindung testen: Starten Sie eine temporäre Compute Engine
VM im Cluster-Subnetz und führen Sie die folgenden Schritte aus:
pingodercurlzu externen Google API-Domains, z. B.storage.googleapis.com.nslookup, um die DNS-Auflösung in die erwarteten IP-Adressen (privater Google-Zugriff oder Private Service Connect) zu prüfen.- Führen Sie Google Cloud Konnektivitätstests durch, um Pfade von einer Test-VM zu relevanten Endpunkten zu diagnostizieren.
Fehler bei Initialisierungsaktionen
Dataproc-Initialisierungsaktionen sind Skripts, die während der Clustererstellung auf Cluster-VMs ausgeführt werden. Fehler in diesen Skripts können den Clusterstart verhindern.
Tipps zur Fehlerbehebung:
- Logs auf Fehler bei Initialisierungsaktionen prüfen: Suchen Sie in Cloud Logging nach Logeinträgen zu
init-actionsoderstartup-scriptfür die Clusterinstanzen. - Skriptpfade und -berechtigungen prüfen: Prüfen Sie, ob sich die Skripts für Initialisierungsaktionen
an der richtigen Stelle in Cloud Storage befinden und ob das VM-Dienstkonto des Clusters
die Rolle
Storage Object Viewerhat, die zum Lesen von Cloud Storage-Skripts erforderlich ist. - Skriptlogik debuggen: Testen Sie die Skriptlogik auf einer separaten Compute Engine VM, die die Clusterumgebung nachahmt, um Fehler zu identifizieren. Fügen Sie dem Skript ausführliches Logging hinzu.
Regionale Ressourcenverfügbarkeit (Fehlschläge)
Gelegentlich ist ein Maschinentyp oder eine Ressource in einer Region oder Zone
vorübergehend nicht verfügbar (Fehlschlag). In der Regel führt dies zu
RESOURCE_EXHAUSTED Fehlern, die nicht mit Problemen mit dem Projektkontingent zusammenhängen.
Tipps zur Fehlerbehebung:
- Andere Zone oder Region ausprobieren: Versuchen Sie, den Cluster in einer anderen Zone derselben Region oder in einer anderen Region zu erstellen.
- Automatische Zonenplatzierung verwenden: Verwenden Sie das Dataproc Feature zur automatischen Zonenplatzierung , um automatisch eine Zone mit Kapazität auszuwählen.
- Maschinentyp anpassen: Wenn Sie einen benutzerdefinierten oder speziellen Maschinentyp verwenden, versuchen Sie es mit einem Standardmaschinentyp, um zu sehen, ob das Problem dadurch behoben wird.
Cloud Customer Care kontaktieren
Wenn weiterhin Probleme mit Clusterfehlern auftreten, wenden Sie sich an Cloud Customer Care. Beschreiben Sie das Problem mit dem Clusterfehler und die Schritte zur Fehlerbehebung, die Sie unternommen haben. Geben Sie außerdem die folgenden Informationen an:
- Clusterdiagnosedaten
- Ausgabe des folgenden Befehls:
gcloud dataproc clusters describe CLUSTER_NAME \ --region=REGION
- Exportierte Logs für den fehlgeschlagenen Cluster.
Tool gcpdiag verwenden
gcpdiag
ist ein Open-Source-Tool. Es ist kein offiziell unterstütztes Google Cloud Produkt.
Mit dem gcpdiag Tool können Sie Probleme mit Google Cloud
Projekten identifizieren und beheben. Weitere Informationen finden Sie im
gcpdiag-Projekt auf GitHub.
Mit dem gcpdiag Tool können Sie die folgenden Dataproc
Clustererstellungsprobleme ermitteln, indem Sie die folgenden Prüfungen durchführen:
- Fehlschläge:Wertet Logs im Log-Explorer aus, um Fehlschläge in Regionen und Zonen zu erkennen.
- Unzureichendes Kontingent: Prüft die Kontingentverfügbarkeit im Dataproc Clusterprojekt.
- Unvollständige Netzwerkkonfiguration: Führt Tests der Netzwerkverbindung durch,
einschließlich Prüfungen auf erforderliche Firewallregeln und die Konfiguration externer und interner IPs
Wenn der Cluster gelöscht wurde, kann das Tool
gcpdiagkeine Prüfung der Netzwerkverbindung durchführen. - Falsche projektübergreifende Konfiguration: Prüft auf projektübergreifende Dienst konten und überprüft die Durchsetzung zusätzlicher Rollen und Organisationsrichtlinien.
- Fehlende IAM-Rollen für freigegebene Virtual Private Cloud-Netzwerke:Wenn der Dataproc-Cluster ein freigegebenes VPC-Netzwerk verwendet, wird geprüft, ob die erforderlichen Dienstkontorollen hinzugefügt wurden.
- Fehler bei Initialisierungsaktionen: Wertet Logs im Log-Explorer aus, um Fehler und Zeitüberschreitungen bei Skripts für Initialisierungsaktionen zu erkennen.
Eine Liste der Schritte zur Clustererstellung mit gcpdiag finden Sie unter
Mögliche Schritte.
Befehl gcpdiag ausführen
Sie können den gcpdiag Befehl in Cloud Shell in der
Google Cloud Console oder in einem Docker Container ausführen.
Google Cloud Console
- Führen Sie den folgenden Befehl aus und kopieren Sie ihn.
- Öffnen Sie die Google Cloud Console und aktivieren Sie Cloud Shell. Cloud Console öffnen
- Fügen Sie den kopierten Befehl ein.
- Führen Sie den Befehl
gcpdiagaus, um das Docker-Imagegcpdiagherunterzuladen und dann Diagnoseprüfungen durchzuführen. Folgen Sie gegebenenfalls der Anleitung für die Ausgabe, um fehlgeschlagene Prüfungen zu beheben.
gcpdiag runbook dataproc/cluster-creation \
--parameter project_id=PROJECT_ID \
--parameter cluster_name=CLUSTER_NAME \
--parameter OPTIONAL_FLAGSDocker
Sie können
gcpdiag mit einem Wrapper ausführen, der gcpdiag in einem Docker-Container startet. Docker oder Podman muss installiert sein.
- Kopieren Sie den folgenden Befehl und führen Sie ihn auf Ihrer lokalen Workstation aus.
curl https://gcpdiag.dev/gcpdiag.sh >gcpdiag && chmod +x gcpdiag
- Führen Sie den Befehl
gcpdiagaus../gcpdiag runbook dataproc/cluster-creation \ --parameter project_id=PROJECT_ID \ --parameter cluster_name=CLUSTER_NAME \ --parameter OPTIONAL_FLAGS
Verfügbare Parameter für dieses Runbook ansehen
Ersetzen Sie Folgendes:
- PROJECT_ID: Die ID des Projekts, das die Ressource enthält
- CLUSTER_NAME: Der Name des Ziel Dataproc-Clusters in Ihrem Projekt
- OPTIONAL_PARAMETERS: Fügen Sie einen oder mehrere der
folgenden optionalen Parameter hinzu. Diese Parameter sind erforderlich, wenn
der Cluster gelöscht wurde.
cluster_uuid: Die UUID des Ziel-Dataproc -Clusters in Ihrem Projektservice_account: Das Dataproc-Cluster VM-Dienstkontosubnetwork: Der vollständige URI-Pfad des Subnetzes des Dataproc-Clustersinternal_ip_only: „true“ oder „false“cross_project: Die projektübergreifende ID, wenn der Dataproc-Cluster ein VM-Dienstkonto in einem anderen Projekt verwendet
Nützliche Flags:
--universe-domain: Die Domain Trusted Partner Sovereign Cloud, auf der die Ressource gehostet wird--parameteroder-p: Runbook-Parameter
Eine Liste und Beschreibung aller gcpdiag Tool-Flags finden Sie in der
gcpdiag Nutzungsanleitung.
Nächste Schritte
- Weitere Informationen zu den Dataproc-Tools für Monitoring und Fehlerbehebung.
- Informationen zur Diagnose von Dataproc-Clustern .
- Informationen im Dokument mit häufig gestellten Fragen zu Dataproc