Fehlerbehebung bei der Clustererstellung

In diesem Dokument werden häufige Fehlermeldungen bei der Clustererstellung erläutert und es werden Tipps zur Fehlerbehebung bei Problemen mit der Clustererstellung gegeben.

Häufige Fehlermeldungen bei der Clustererstellung

  • User not authorized to act as service account

    Ursache: Der Prinzipal, der versucht, den Dataproc-Cluster zu erstellen, hat nicht die erforderlichen Berechtigungen, um das angegebene Dienstkonto zu verwenden. Dataproc-Nutzer benötigen die Berechtigung für das Dienstkonto ActAs, um Dataproc-Ressourcen bereitzustellen. Diese Berechtigung ist in der Rolle Dienstkontonutzer (roles/iam.serviceAccountUser) enthalten (siehe Dataproc-Rollen).

    Lösung: Ermitteln Sie den Nutzer oder das Dienstkonto, das versucht, den Dataproc-Cluster zu erstellen. Weisen Sie diesem Prinzipal die Rolle Dienstkontonutzer (roles/iam.serviceAccountUser) für das Dienstkonto zu, das der Cluster verwenden soll (in der Regel das Dataproc-VM-Dienstkonto).

  • Operation timed out: Only 0 out of 2 minimum required datanodes/node managers running.

    Ursache: Der Controllerknoten kann den Cluster nicht erstellen, da er nicht mit Worker-Knoten kommunizieren kann.

    Lösung:

    • Überprüfen Sie die Warnungen für Firewallregeln.
    • Prüfen Sie, ob die richtigen Firewallregeln vorhanden sind. Weitere Informationen finden Sie unter Übersicht über die Standard-Dataproc-Firewallregeln.
    • Führen Sie in der Google Cloud Console einen Konnektivitätstest durch, um zu ermitteln, was die Kommunikation zwischen den Controller- und Worker-Knoten blockiert.
  • Required compute.subnetworks.use permission for projects/{projectId}/regions/{region}/subnetworks/{subnetwork}

    Ursache: Dieser Fehler kann auftreten, wenn Sie versuchen, einen Dataproc Cluster mit einem VPC-Netzwerk in einem anderen Projekt einzurichten und das Dataproc Dienstkonto Dienst-Agent nicht die erforderlichen Berechtigungen für das freigegebene VPC -Projekt hat, in dem das Netzwerk gehostet wird.

    Lösung: Führen Sie die unter Cluster erstellen, der ein VPC-Netzwerk in einem anderen Projekt verwendet aufgeführten Schritten aus.

  • The zone projects/zones/{zone} does not have enough resources available to fulfill the request (resource type:compute)

    Ursache: Die Zone, die zum Erstellen des Clusters verwendet wird, hat nicht genügend Ressourcen.

    Lösung:

    • Verwenden Sie das Dataproc Feature zur automatischen Zonenplatzierung, um den Cluster in einer beliebigen Zone einer Region mit verfügbaren Ressourcen zu erstellen.
    • Erstellen Sie den Cluster in einer anderen Zone.
  • Fehler bei Kontingentüberschreitung

    Unzureichendes CPUS-/CPUS_ALL_REGIONS-Kontingent
    Unzureichendes Kontingent "DISKS_SUM_GB"
    Unzureichendes Kontingent "IN_USE_ADDRESSES"

    Ursache: Ihre CPU, Laufwerk, oder IP-Adressanfrage überschreitet das verfügbare Kontingent.

    Lösung: Fordern Sie in der Google Cloud Console ein zusätzliches Kontingent an.

  • Initialisierungsaktion fehlgeschlagen

    Ursache: Die während der Clustererstellung angegebene Initialisierungsaktion konnte nicht installiert werden.

    Lösung:

  • Failed to initialize node CLUSTER-NAME-m. ... See output in: <gs://PATH_TO_STARTUP_SCRIPT_OUTPUT>

    Ursache: Der Controllerknoten des Dataproc-Clusters konnte nicht initialisiert werden.

    Lösung:

  • Cluster creation failed: IP address space exhausted

    Ursache: Der für die Bereitstellung der angeforderten Clusterknoten erforderliche IP-Adressbereich ist nicht verfügbar.

    Lösung:

    • Erstellen Sie einen Cluster mit weniger Worker-Knoten, aber einem größeren Maschinentyp.
    • Erstellen Sie einen Cluster in einem anderen Subnetzwerk oder Netzwerk.
    • Reduzieren Sie die Nutzung des Netzwerks, um IP-Adressbereich freizugeben.
    • Warten Sie, bis im Netzwerk genügend IP-Adressbereich verfügbar ist.
  • Initialization script error message: The repository REPO_NAME no longer has a Release file

    Ursache: Das Debian-Backports-Repository für die alte stabile Version wurde gelöscht.

    Lösung:

    Fügen Sie den folgenden Code vor dem Code ein, der apt-get in Ihrem Initialisierungsskript ausführt.

    oldstable=$(curl -s https://deb.debian.org/debian/dists/oldstable/Release | awk '/^Codename/ {print $2}');
    stable=$(curl -s https://deb.debian.org/debian/dists/stable/Release | awk '/^Codename/ {print $2}');
    
    matched_files="$(grep -rsil '\-backports' /etc/apt/sources.list*)"
    if [[ -n "$matched_files" ]]; then
      for filename in "$matched_files"; do
        grep -e "$oldstable-backports" -e "$stable-backports" "$filename" || \
          sed -i -e 's/^.*-backports.*$//' "$filename"
      done
    fi
    
  • Timeout waiting for instance DATAPROC_CLUSTER_VM_NAME to report in oder Network is unreachable: dataproccontrol-REGION.googleapis.com

    Ursache: Diese Fehlermeldungen weisen darauf hin, dass die Netzwerkeinrichtung Ihres Dataproc-Clusters unvollständig ist. Möglicherweise fehlt die Route zum Standard-Internetgateway oder zu Firewallregeln.

    Lösung:

    Zur Fehlerbehebung können Sie die folgenden Konnektivitätstests erstellen:

    • Erstellen Sie einen Konnektivitätstest zwischen zwei Dataproc-Cluster-VMs. Anhand des Ergebnisses dieses Tests können Sie feststellen, ob die Firewallregeln für eingehenden und ausgehenden Traffic Ihres Netzwerks korrekt auf die Cluster-VMs angewendet werden.
    • Erstellen Sie einen Konnektivitätstest zwischen einer Dataproc-Cluster-VM und einer aktuellen Dataproc Control API IP-Adresse. Verwenden Sie den folgenden Befehl, um eine aktuelle IP-Adresse der Dataproc Control API abzurufen:
    dig dataproccontrol-REGION.googleapis.com A
    

    Verwenden Sie eine der IPv4-Adressen im Antwortbereich der Ausgabe.

    Anhand des Ergebnisses des Konnektivitätstests können Sie feststellen, ob die Route zum Standard-Internetgateway und die Firewall für ausgehenden Traffic richtig konfiguriert sind.

    Basierend auf den Ergebnissen der Konnektivitätstests:

  • Fehler aufgrund von Update

    Ursache: Der Cluster hat einen Job akzeptiert, der an den Dataproc Dienst gesendet wurde, konnte aber nicht manuell oder durch Autoscaling skaliert werden. Dieser Fehler kann auch durch eine nicht standardmäßige Clusterkonfiguration verursacht werden.

    Lösung:

    • Cluster zurücksetzen: Erstellen Sie ein Supportticket, fügen Sie eine Diagnosedatei im TAR-Format hinzu und bitten Sie darum, den Cluster auf den Status „WIRD AUSGEFÜHRT“ zurückzusetzen.

    • Neuer Cluster: Erstellen Sie den Cluster mit derselben Konfiguration neu. Diese Lösung kann schneller sein als ein vom Support bereitgestelltes Zurücksetzen.

Tipps zur Fehlerbehebung bei Clustern

In diesem Abschnitt finden Sie weitere Anleitungen zur Fehlerbehebung bei häufigen Problemen, die die Erstellung von Dataproc-Clustern verhindern können.

Wenn die Bereitstellung eines Dataproc-Clusters fehlschlägt, wird häufig eine allgemeine Fehlermeldung angezeigt oder der Status PENDING oder PROVISIONING gemeldet, bevor der Vorgang fehlschlägt. Um Probleme mit Clusterfehlern zu diagnostizieren und zu beheben müssen Sie die Clusterlogs prüfen und häufige Fehlerpunkte bewerten.

Häufige Symptome

Die folgenden Symptome treten häufig bei Fehlern bei der Clustererstellung auf:

  • Der Clusterstatus bleibt für längere Zeit PENDING oder PROVISIONING.
  • Der Cluster wechselt in den Status ERROR.
  • Allgemeine API-Fehler bei der Clustererstellung, z. B. Operation timed out.
  • Protokollierte Fehlermeldungen oder API-Antwortfehlermeldungen, z. B.:

    • RESOURCE_EXHAUSTED: bezieht sich auf CPU-, Laufwerk- oder IP-Adresskontingente
    • Instance failed to start
    • Permission denied
    • Unable to connect to service_name.googleapis.com oder Could not reach required Google APIs
    • Connection refused oder network unreachable
    • Fehler im Zusammenhang mit fehlgeschlagenen Initialisierungsaktionen, z. B. Skriptausführungsfehler und „Datei nicht gefunden“.

Clusterlogs prüfen

Ein wichtiger erster Schritt bei der Diagnose von Fehlern bei der Clustererstellung ist die Prüfung der detaillierten Clusterlogs in Cloud Logging.

  1. Rufen Sie den Log-Explorer auf: Öffnen Sie den Log-Explorer in der Google Cloud Console.
  2. Nach Dataproc-Clustern filtern:
    • Wählen Sie im Drop-down-Menü Ressource die Option Cloud Dataproc Cluster aus.
    • Geben Sie cluster_name und project_id ein. Sie können auch nach location (Region) filtern.
  3. Logeinträge prüfen:
    • Suchen Sie nach Meldungen der Stufe ERROR oder WARNING, die kurz nach dem Fehler bei der Clustererstellung auftreten.
    • Achten Sie auf Logs von master-startup, worker-startup- und agent Komponenten, um Informationen zu Problemen auf VM-Ebene oder mit dem Dataproc Agent zu erhalten.
    • Wenn Sie Informationen zu Problemen mit der VM-Startzeit erhalten möchten, filtern Sie die Logs nach resource.type="gce_instance" und suchen Sie nach Meldungen von den Instanznamen, die mit Ihren Clusterknoten verknüpft sind, z. B. CLUSTER_NAME-m oder CLUSTER_NAME-w-0. Serielle Konsolenlogs können Probleme mit der Netzwerkkonfiguration, Festplatten probleme und Skriptfehler aufdecken, die früh im VM-Lebenszyklus auftreten.

Häufige Ursachen für Clusterfehler und Tipps zur Fehlerbehebung

In diesem Abschnitt werden häufige Gründe für das Fehlschlagen der Dataproc-Cluster erstellung aufgeführt und Tipps zur Fehlerbehebung bei Clusterfehlern gegeben.

Unzureichende IAM-Berechtigungen

Das VM-Dienstkonto das von Ihrem Dataproc-Cluster verwendet wird, muss die entsprechenden IAM-Rollen haben, um Compute Engine-Instanzen bereitzustellen, auf Cloud Storage Buckets zuzugreifen, Logs zu schreiben und mit anderen Google Cloud Diensten zu interagieren.

  • Erforderliche Worker-Rolle: Prüfen Sie, ob das VM-Dienstkonto die Dataproc-Worker -Rolle (roles/dataproc.worker) hat. Diese Rolle hat die Mindestberechtigungen, die für Dataproc zum Verwalten von Clusterressourcen erforderlich sind.
  • Berechtigungen für den Datenzugriff: Wenn Ihre Jobs Daten aus Cloud Storage oder BigQuery lesen oder in diese schreiben, benötigt das Dienstkonto entsprechende Rollen, z. B. Storage Object Viewer, Storage Object Creator, oder Storage Object Admin für Cloud Storage, oder BigQuery Data Viewer oder BigQuery Editor für BigQuery.
  • Berechtigungen für das Logging: Das Dienstkonto muss eine Rolle mit den Berechtigungen haben, die zum Schreiben von Logs in Cloud Logging erforderlich sind, z. B. die Rolle Logging Writer.

Tipps zur Fehlerbehebung:

  • Dienstkonto ermitteln: Ermitteln Sie das VM-Dienstkonto das von Ihrem Cluster verwendet wird. Wenn nicht angegeben, ist das Compute Engine-Standarddienstkonto die Standardeinstellung.

  • IAM-Rollen prüfen: Rufen Sie in der Google Cloud Console die Seite IAM & Verwaltung > IAM auf, suchen Sie nach dem VM-Dienstkonto des Clusters und prüfen Sie dann, ob es die erforderlichen Rollen für Clusteroperationen hat. Weisen Sie alle fehlenden Rollen zu.

Ressourcenkontingente überschritten

Dataproc-Cluster verbrauchen Ressourcen aus Compute Engine und anderen Google Cloud Diensten. Das Überschreiten von Projekt- oder regionalen Kontingenten kann zu Fehlern bei der Clustererstellung führen.

  • Häufige Dataproc-Kontingente, die geprüft werden müssen:
    • CPUs (regional)
    • DISKS_TOTAL_GB (regional)
    • IN_USE_ADDRESSES (regional für interne IPs, global für externe IPs)
    • Dataproc API-Kontingente, z. B. ClusterOperationRequestsPerMinutePerProjectPerRegion

Tipps zur Fehlerbehebung:

  • Kontingente prüfen: Rufen Sie in der Google Cloud Console die Seite IAM & Verwaltung > IAM auf. Filtern Sie nach „Dienst“ für „Compute Engine API“ und „Dataproc API“.
  • Nutzung im Vergleich zum Limit prüfen: Ermitteln Sie alle Kontingente, die das Limit erreicht haben oder fast erreicht haben.
  • Fordern Sie bei Bedarf eine Kontingenterhöhung an.

Probleme mit der Netzwerkkonfiguration

Probleme mit der Netzwerkkonfiguration, z. B. eine falsche VPC-Netzwerk-, Subnetz-, Firewall- oder DNS-Konfiguration, sind eine häufige Ursache für Fehler bei der Clustererstellung. Clusterinstanzen müssen miteinander und mit Google APIs kommunizieren können.

  • VPC-Netzwerk und Subnetz:
    • Prüfen Sie, ob das VPC-Netzwerk und das Subnetz des Clusters vorhanden und richtig konfiguriert sind.
    • Prüfen Sie, ob das Subnetz einen ausreichenden Bereich verfügbarer IP-Adressen hat.
  • Privater Google-Zugriff (Private Google Access, PGA): Wenn Cluster-VMs interne IP-Adressen haben und Google APIs für Cloud Storage, Cloud Logging und andere Vorgänge erreichen müssen, prüfen Sie, ob der private Google-Zugriff für das Subnetz aktiviert ist. Standardmäßig werden bei Dataproc-Clustern, die mit Image-Versionen ab 2.2 erstellt wurden, VMs mit ausschließlich internen IP-Adressen bereitgestellt, wobei der private Google-Zugriff für das regionale Subnetz des Clusters aktiviert ist.
  • Private Service Connect (PSC): Wenn Sie Private Service Connect verwenden, um auf Google APIs zuzugreifen, prüfen Sie, ob die erforderlichen Private Service Connect-Endpunkte für die Google APIs, von denen Dataproc abhängt, richtig konfiguriert sind, z. B. dataproc.googleapis.com, storage.googleapis.com, compute.googleapis.com und logging.googleapis.com. DNS-Einträge für die APIs müssen in private IP-Adressen aufgelöst werden. Beachten Sie, dass die Verwendung von Private Service Connect die Verwendung von VPC-Peering für die Kommunikation mit anderen vom Kunden verwalteten VPC-Netzwerken nicht überflüssig macht.
  • VPC-Peering: Wenn Ihr Cluster mit Ressourcen in anderen VPC-Netzwerken kommuniziert, z. B. mit Hostprojekten für freigegebene VPCs oder anderen Kunden-VPCs, prüfen Sie, ob das VPC-Peering richtig konfiguriert ist und Routen weitergegeben werden.
  • Firewallregeln:

    • Standardregeln: Prüfen Sie, ob die Standard-Firewallregeln, z. B. allow-internal oder allow-ssh, nicht zu restriktiv sind.
    • Benutzerdefinierte Regeln: Wenn benutzerdefinierte Firewallregeln vorhanden sind, prüfen Sie, ob sie die erforderlichen Kommunikationspfade zulassen:

      • Interne Kommunikation innerhalb des Clusters (zwischen -m und -w Knoten).
      • Ausgehender Traffic von Cluster-VMs zu Google APIs über öffentliche IPs oder ein Internetgateway, privaten Google-Zugriff oder Private Service Connect-Endpunkte.

      • Traffic zu externen Datenquellen oder Diensten, von denen Ihre Jobs abhängen.

  • DNS-Auflösung: Prüfen Sie, ob Clusterinstanzen DNS Namen für Google APIs und alle internen oder externen Dienste korrekt auflösen können.

Tipps zur Fehlerbehebung:

  • Netzwerkkonfiguration prüfen: Prüfen Sie die VPC-Netzwerk- und Subnetzeinstellungen, in denen der Cluster bereitgestellt wird.
  • Firewallregeln prüfen: Prüfen Sie die Firewallregeln im VPC-Netzwerk oder im Hostprojekt der freigegebenen VPC.
  • Verbindung testen: Starten Sie eine temporäre Compute Engine VM im Cluster-Subnetz und führen Sie die folgenden Schritte aus:
    • ping oder curl zu externen Google API-Domains, z. B. storage.googleapis.com.
    • nslookup, um die DNS-Auflösung in die erwarteten IP-Adressen (privater Google-Zugriff oder Private Service Connect) zu prüfen.
    • Führen Sie Google Cloud Konnektivitätstests durch, um Pfade von einer Test-VM zu relevanten Endpunkten zu diagnostizieren.

Fehler bei Initialisierungsaktionen

Dataproc-Initialisierungsaktionen sind Skripts, die während der Clustererstellung auf Cluster-VMs ausgeführt werden. Fehler in diesen Skripts können den Clusterstart verhindern.

Tipps zur Fehlerbehebung:

  • Logs auf Fehler bei Initialisierungsaktionen prüfen: Suchen Sie in Cloud Logging nach Logeinträgen zu init-actions oder startup-script für die Clusterinstanzen.
  • Skriptpfade und -berechtigungen prüfen: Prüfen Sie, ob sich die Skripts für Initialisierungsaktionen an der richtigen Stelle in Cloud Storage befinden und ob das VM-Dienstkonto des Clusters die Rolle Storage Object Viewer hat, die zum Lesen von Cloud Storage-Skripts erforderlich ist.
  • Skriptlogik debuggen: Testen Sie die Skriptlogik auf einer separaten Compute Engine VM, die die Clusterumgebung nachahmt, um Fehler zu identifizieren. Fügen Sie dem Skript ausführliches Logging hinzu.

Regionale Ressourcenverfügbarkeit (Fehlschläge)

Gelegentlich ist ein Maschinentyp oder eine Ressource in einer Region oder Zone vorübergehend nicht verfügbar (Fehlschlag). In der Regel führt dies zu RESOURCE_EXHAUSTED Fehlern, die nicht mit Problemen mit dem Projektkontingent zusammenhängen.

Tipps zur Fehlerbehebung:

  • Andere Zone oder Region ausprobieren: Versuchen Sie, den Cluster in einer anderen Zone derselben Region oder in einer anderen Region zu erstellen.
  • Automatische Zonenplatzierung verwenden: Verwenden Sie das Dataproc Feature zur automatischen Zonenplatzierung , um automatisch eine Zone mit Kapazität auszuwählen.
  • Maschinentyp anpassen: Wenn Sie einen benutzerdefinierten oder speziellen Maschinentyp verwenden, versuchen Sie es mit einem Standardmaschinentyp, um zu sehen, ob das Problem dadurch behoben wird.

Cloud Customer Care kontaktieren

Wenn weiterhin Probleme mit Clusterfehlern auftreten, wenden Sie sich an Cloud Customer Care. Beschreiben Sie das Problem mit dem Clusterfehler und die Schritte zur Fehlerbehebung, die Sie unternommen haben. Geben Sie außerdem die folgenden Informationen an:

  • Clusterdiagnosedaten
  • Ausgabe des folgenden Befehls:
      gcloud dataproc clusters describe CLUSTER_NAME \
          --region=REGION
      
  • Exportierte Logs für den fehlgeschlagenen Cluster.

Tool gcpdiag verwenden

gcpdiag ist ein Open-Source-Tool. Es ist kein offiziell unterstütztes Google Cloud Produkt. Mit dem gcpdiag Tool können Sie Probleme mit Google Cloud Projekten identifizieren und beheben. Weitere Informationen finden Sie im gcpdiag-Projekt auf GitHub.

Mit dem gcpdiag Tool können Sie die folgenden Dataproc Clustererstellungsprobleme ermitteln, indem Sie die folgenden Prüfungen durchführen:

  • Fehlschläge:Wertet Logs im Log-Explorer aus, um Fehlschläge in Regionen und Zonen zu erkennen.
  • Unzureichendes Kontingent: Prüft die Kontingentverfügbarkeit im Dataproc Clusterprojekt.
  • Unvollständige Netzwerkkonfiguration: Führt Tests der Netzwerkverbindung durch, einschließlich Prüfungen auf erforderliche Firewallregeln und die Konfiguration externer und interner IPs Wenn der Cluster gelöscht wurde, kann das Tool gcpdiag keine Prüfung der Netzwerkverbindung durchführen.
  • Falsche projektübergreifende Konfiguration: Prüft auf projektübergreifende Dienst konten und überprüft die Durchsetzung zusätzlicher Rollen und Organisationsrichtlinien.
  • Fehlende IAM-Rollen für freigegebene Virtual Private Cloud-Netzwerke:Wenn der Dataproc-Cluster ein freigegebenes VPC-Netzwerk verwendet, wird geprüft, ob die erforderlichen Dienstkontorollen hinzugefügt wurden.
  • Fehler bei Initialisierungsaktionen: Wertet Logs im Log-Explorer aus, um Fehler und Zeitüberschreitungen bei Skripts für Initialisierungsaktionen zu erkennen.

Eine Liste der Schritte zur Clustererstellung mit gcpdiag finden Sie unter Mögliche Schritte.

Befehl gcpdiag ausführen

Sie können den gcpdiag Befehl in Cloud Shell in der Google Cloud Console oder in einem Docker Container ausführen.

Google Cloud Console

  1. Führen Sie den folgenden Befehl aus und kopieren Sie ihn.
  2. gcpdiag runbook dataproc/cluster-creation \
        --parameter project_id=PROJECT_ID \
        --parameter cluster_name=CLUSTER_NAME \
        --parameter OPTIONAL_FLAGS
  3. Öffnen Sie die Google Cloud Console und aktivieren Sie Cloud Shell.
  4. Cloud Console öffnen
  5. Fügen Sie den kopierten Befehl ein.
  6. Führen Sie den Befehl gcpdiag aus, um das Docker-Image gcpdiag herunterzuladen und dann Diagnoseprüfungen durchzuführen. Folgen Sie gegebenenfalls der Anleitung für die Ausgabe, um fehlgeschlagene Prüfungen zu beheben.

Docker

Sie können gcpdiag mit einem Wrapper ausführen, der gcpdiag in einem Docker-Container startet. Docker oder Podman muss installiert sein.

  1. Kopieren Sie den folgenden Befehl und führen Sie ihn auf Ihrer lokalen Workstation aus.
    curl https://gcpdiag.dev/gcpdiag.sh >gcpdiag && chmod +x gcpdiag
  2. Führen Sie den Befehl gcpdiag aus.
    ./gcpdiag runbook dataproc/cluster-creation \
        --parameter project_id=PROJECT_ID \
        --parameter cluster_name=CLUSTER_NAME \
        --parameter OPTIONAL_FLAGS

Verfügbare Parameter für dieses Runbook ansehen

Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID des Projekts, das die Ressource enthält
    • CLUSTER_NAME: Der Name des Ziel Dataproc-Clusters in Ihrem Projekt
    • OPTIONAL_PARAMETERS: Fügen Sie einen oder mehrere der folgenden optionalen Parameter hinzu. Diese Parameter sind erforderlich, wenn der Cluster gelöscht wurde.
      • cluster_uuid: Die UUID des Ziel-Dataproc -Clusters in Ihrem Projekt
      • service_account: Das Dataproc-Cluster VM-Dienstkonto
      • subnetwork: Der vollständige URI-Pfad des Subnetzes des Dataproc-Clusters
      • internal_ip_only: „true“ oder „false“
      • cross_project: Die projektübergreifende ID, wenn der Dataproc-Cluster ein VM-Dienstkonto in einem anderen Projekt verwendet

Nützliche Flags:

Eine Liste und Beschreibung aller gcpdiag Tool-Flags finden Sie in der gcpdiag Nutzungsanleitung.

Nächste Schritte