Netzwerkkonfiguration von Managed Service for Apache Spark-Clustern

Beschreibung: Informationen zur Netzwerkkonfiguration von Dataproc-Clustern. VPC-Routen, Firewallregeln, privater Google-Zugriff und freigegebene VPC für sichere Bereitstellungen mit nur internen IP-Adressen implementieren.

Auf dieser Seite werden die Anforderungen und Optionen für die Netzwerkkonfiguration von Managed Service for Apache Spark-Clustern erläutert.

Verbindungsanforderungen für Managed Service for Apache Spark

Ihr Managed Service for Apache Spark-Cluster muss sich in einem VPC-Netzwerk (Virtual Private Cloud) befinden, das die Routen- und Firewallanforderungen erfüllt, um sicher auf Google APIs und andere Ressourcen zuzugreifen.

Anforderungen an die Route

Um die Kommunikation zwischen dem Managed Service for Apache Spark-Agent, der auf Cluster-VMs ausgeführt wird, und der Managed Service for Apache Spark-Steuerungs-API herzustellen, muss das VPC-Netzwerk des Managed Service for Apache Spark-Clusters eine Route zum Internetgateway haben. Dies ist auch für Cluster mit nur internen IP-Adressen erforderlich.

Standardmäßig werden bei Clustern mit Managed Service for Apache Spark 2.2 und höherer Image-Version VMs mit nur internen IP-Adressen bereitgestellt. Managed Service for Apache Spark aktiviert automatisch den privater Google-Zugriff, PGA) im Cluster-Subnetz, damit Cluster-VMs mit internen IP-Adressen über eine vom System generierte Standardroute zum Standard-Internetgateway auf Google APIs und ‑Dienste zugreifen können.

Regel Typ Ziel-IP-Bereich Priorität Bereichseinschränkungen Nächster Hop
default-route-[id] Statisch 0.0.0.0/0 1000 - Standard-Internetgateway

PGA sorgt dafür, dass der Cluster-Traffic nicht das öffentliche Internet durchläuft und die Google-Rechenzentren nicht verlässt (siehe das PGA-Beispieldiagramm).

Das Löschen der Standardroute zum Internetgateway wird nicht empfohlen. Wenn Sie den Netzwerkzugriff auf das Internet steuern möchten, verwenden Sie stattdessen Firewallregeln oder ‑richtlinien.

Wenn Sie die Standardroute zum Internetgateway gelöscht haben, müssen Sie eine Standardroute hinzufügen. Der Ziel-IP-Bereich muss 0.0.0.0/0 sein, da die IP-Bereiche für die Managed Service for Apache Spark-Steuerungs-API nicht statisch sind.

Firewallanforderungen

Im VPC-Netzwerk Ihres Managed Service for Apache Spark-Clusters muss der folgende Traffic explizit zugelassen werden:

  • Traffic, der von Managed Service for Apache Spark-Cluster-VMs zur Managed Service for Apache Spark-Steuerungs-API und zu anderen Managed Service for Apache Spark-Cluster-VMs initiiert wird. Dieser Traffic wird standardmäßig durch die implizierte Regel zum Zulassen von ausgehendem Traffic des VPC-Netzwerk zugelassen. Wenn Sie überschreibende Firewallregeln zum Ablehnen von ausgehendem Traffic hinzugefügt haben, erstellen Sie eine Firewallregel zum Zulassen von ausgehendem Traffic.

  • Antwort-Traffic von der Managed Service for Apache Spark-Steuerungs-API zu den Managed Service for Apache Spark-Cluster-VMs ist aufgrund der Statusverwaltung der VPC-Netzwerk-Firewall standardmäßig zulässig.

  • Traffic, der von Managed Service for Apache Spark-Cluster-VMs von anderen Managed Service for Apache Spark-Cluster-VMs empfangen wird. Dieser Traffic wird standardmäßig durch die implizierte Firewallregel zum Ablehnen von eingehendem Traffic des VPC-Netzwerks abgelehnt. Sie müssen eine Firewallregel zum Zulassen von eingehendem Traffic erstellen.

Best Practices:

  • Verwenden Sie Netzwerk-Tags für Ihre Managed Service for Apache Spark-Cluster-VMs, damit Sie die Anwendbarkeit der erforderlichen Firewallregeln auf Managed Service for Apache Spark-Cluster-VMs beschränken können. Wenn Sie keine Netzwerk-Tags verwenden, können Sie Ziele anhand des Dienstkontos angeben, das für die Cluster-VMs verwendet wird. Andernfalls können Sie Firewallregeln so konfigurieren, dass sie für alle VMs im VPC-Netzwerk gelten.
  • Für einen sichereren Netzwerkzugriff und eine sicherere Verbindung, verwenden Sie sichere Tags anstelle von Netzwerk-Tags, um Quellen und Ziele von Firewallregeln zu definieren.

Firewallregel zum Zulassen von eingehendem Traffic erstellen

Wenn Sie oder Ihr Netzwerk- oder Sicherheitsadministrator eine Firewallregel für eingehenden Traffic erstellen , die auf ein VPC-Netzwerk eines Managed Service for Apache Spark-Clusters angewendet werden soll, muss sie die folgenden Merkmale aufweisen:

  • Der Parameter „sources“ gibt die Quellen für Pakete an. Alle Managed Service for Apache Spark-Cluster-VMs müssen miteinander kommunizieren können. Sie können die VMs im Cluster anhand des IP-Adressbereichs (der primäre Bereich des Managed Service for Apache Spark-Cluster-Subnetzes), der Netzwerk-Tags oder der mit den VMs verknüpften Dienstkonten identifizieren.

  • Die Ziele für die Regel müssen die VMs des Clusters identifizieren. Das Ziel kann alle VMs im VPC-Netzwerk sein oder Sie können VMs anhand von Zielnetzwerk-Tags oder Zieldienstkonten identifizieren.

  • Die Regel muss die folgenden Protokolle und Ports enthalten:

    • TCP (alle Ports, 0 bis 65535)
    • UDP (alle Ports, 0 bis 65535)
    • ICMP

    Managed Service for Apache Spark verwendet Dienste, die auf mehreren Ports ausgeführt werden. Wenn Sie alle Ports angeben, können die Dienste erfolgreich ausgeführt werden.

  • Die Priorität der Regel muss höher sein als die Priorität aller Firewallregeln zum Ablehnen von eingehendem Traffic, die für dieselben Quellen und Ziele gelten.

Firewallregel zum Zulassen von ausgehendem Traffic erstellen

Wenn Sie oder Ihr Netzwerk- oder Sicherheitsadministrator eine Firewallregel für ausgehenden Traffic erstellen, die auf ein VPC-Netzwerk eines Managed Service for Apache Spark-Clusters angewendet werden soll, muss sie die folgenden Merkmale aufweisen:

  • Der destinations Parameter gibt die Ziele für Pakete an. Alle Managed Service for Apache Spark-Cluster-VMs müssen Traffic zueinander und zur Managed Service for Apache Spark-Steuerungs-API initiieren können. Da die IP-Adressen der Steuerungs-API nicht statisch sind, muss das Ziel mit dem IP-Bereich 0.0.0.0/0 angegeben werden.

  • Die Ziele für die Regel müssen die VMs des Clusters identifizieren. Das Ziel kann alle VMs im VPC-Netzwerk sein oder Sie können VMs anhand von Zielnetzwerk-Tags oder Zieldienstkonten identifizieren.

  • Die Regel muss die folgenden Protokolle und Ports enthalten:

    • TCP (alle Ports, 0 bis 65535)
    • UDP (alle Ports, 0 bis 65535)
    • ICMP

    Managed Service for Apache Spark verwendet Dienste, die auf mehreren Ports ausgeführt werden. Wenn Sie alle Ports angeben, können die Dienste erfolgreich ausgeführt werden.

  • Die Priorität der Regel muss höher sein als die Priorität aller Firewallregeln zum Ablehnen von ausgehendem Traffic, die für dieselben Ziele und Ziele gelten.

VPC-Netzwerk-Firewallregeln diagnostizieren

Für Pakete, die nicht von Firewallregeln mit höherer Priorität verarbeitet werden, können Sie die folgenden zwei Firewallregeln mit niedriger Priorität (65534) ablehnen. Im Gegensatz zu den implizierten Firewallregeln können Sie das Logging von Firewallregeln für jede dieser Regeln mit niedriger Priorität aktivieren:

  1. Eine Regel zum Ablehnen von eingehendem Traffic (Quellen 0.0.0.0/0, alle Protokolle, alle Ziele im VPC-Netzwerk)

  2. Regel für Ablehnen von ausgehenden Traffic (Ziele 0.0.0.0/0, alle Protokolle, alle Ziele im VPC-Netzwerk)

  • Mit diesem Logging und Regeln-Logging mit niedriger Priorität können Sie Pakete protokollieren, die nicht von Firewallregeln mit höherer Priorität (und möglicherweise spezifischeren) verarbeitet werden. Diese beiden Regeln mit niedriger Priorität entsprechen auch den Best Practices für die Sicherheit, indem sie eine Strategie für das endgültige Verwerfen von Paketen implementieren.

  • Prüfen Sie die Firewallregel-Logs für diese Regeln, um festzustellen, ob Sie Regeln mit höherer Priorität erstellen oder ändern müssen, um Pakete zuzulassen. Wenn beispielsweise Pakete, die zwischen Managed Service for Apache Spark-Cluster-VMs gesendet werden, verworfen werden, kann dies darauf hindeuten, dass Ihre Firewallregeln angepasst werden müssen.

VPC-Netzwerk erstellen

Anstatt das default VPC-Netzwerk zu verwenden, können Sie ein eigenes VPC-Netzwerk im automatischen Modus oder im benutzerdefinierten Modus erstellen. Wenn Sie den Cluster erstellen, verknüpfen Sie Ihr Netzwerk mit dem Cluster.

Assured Workloads-Umgebung: Wenn Sie eine Assured Workloads-Umgebung für die Einhaltung von Vorschriften verwenden, müssen sich der Cluster, das VPC-Netzwerk und die Cloud Storage Buckets in der Assured Workloads-Umgebung befinden.

Cluster erstellen, der Ihr VPC-Netzwerk verwendet

Console

Wählen Sie im Bereich „Netzwerkkonfiguration“ des Steuerfelds Cluster anpassen Ihr Netzwerk aus. Nachdem Sie das Netzwerk ausgewählt haben, zeigt die Subnetzwerk -Auswahl die Subnetze an, die in der Region verfügbar sind, die Sie für den Cluster ausgewählt haben.

Google Cloud CLI

Verwenden Sie gcloud dataproc clusters create mit dem Flag ‑‑network oder ‑‑subnet , um einen Cluster in einem Subnetzwerk in Ihrem Netzwerk zu erstellen. Wenn Sie das Flag ‑‑network verwenden, verwendet der Cluster ein Subnetzwerk mit demselben Namen wie das angegebene Netzwerk in der Region, in der der Cluster erstellt wird.

--network example. Da automatische Netzwerke mit Subnetzen in jeder Region erstellt werden, wobei jedes Subnetzwerk den Namen des Netzwerks erhält, können Sie den Namen des VPC-Netzwerk im automatischen Modus an das ‑‑network Flag übergeben. Der Cluster verwendet das VPC-Subnetzwerk im automatischen Modus in der Region, die mit dem Flag ‑‑region angegeben wurde.

gcloud dataproc clusters create CLUSTER_NAME \
    --network NETWORK_NAME \
    --region=REGION \
    ... other args ...

--subnet example. Sie können das ‑‑subnet Flag verwenden, um einen Cluster zu erstellen, der ein Subnetzwerk im automatischen oder benutzerdefinierten Modus in der Clusterregion verwendet. Geben Sie den vollständigen Ressourcenpfad des Subnetzes an.

gcloud dataproc clusters create CLUSTER_NAMEW \
    --subnet projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME \
    --region=REGION \
    ... other args ...
Google Cloud Google Cloud

REST API

Sie können das Feld networkUri oder subnetworkUri von GceClusterConfig im Rahmen einer clusters.create-Anfrage angeben.

Beispiel

POST /v1/projects/my-project-id/regions/us-central1/clusters/
{
  "projectId": "PROJECT_ID",
  "clusterName": CLUSTER_NAME,
  "config": {
    "configBucket": "",
    "gceClusterConfig": {
      "subnetworkUri": SUBNET_NAME,
    },
    ...
Google Cloud Google Cloud

Cluster erstellen, der ein VPC-Netzwerk in einem anderen Projekt verwendet

Ein Managed Service for Apache Spark-Cluster kann ein freigegebenes VPC-Netzwerk verwenden, das in einem Hostprojekt definiert ist. Das Projekt, in dem der Managed Service for Apache Spark-Cluster erstellt wird, wird als Dienstprojekt bezeichnet.

  1. Suchen Sie die Projektnummer des Managed Service for Apache Spark-Clusters:

    1. Öffnen Sie in der Google Cloud Console die Seite IAM & Verwaltung Einstellungen. Wählen Sie das Projekt aus, in dem Sie den Managed Service for Apache Spark-Cluster erstellen möchten. Kopieren Sie die Projekt-ID.
  2. Ein Hauptkonto mit der Rolle „Administrator für freigegebene VPC“ muss die folgenden Schritte ausführen. Weitere Informationen finden Sie in der Anleitung unter Freigegebene VPC einrichten.

    1. Das freigegebene VPC-Hostprojekt muss aktiviert sein.

    2. Verknüpfen Sie das Projekt mit dem Managed Service for Apache Spark-Cluster mit dem Hostprojekt.

    3. Konfigurieren Sie das Dienstkonto des Managed Service for Apache Spark-Dienst-Agents (service-[project-number]@dataproc-accounts.iam.gserviceaccount.com) so, dass es die Rolle „Netzwerknutzer“ für das Hostprojekt hat:

      1. Öffnen Sie in der Google Cloud Console die Seite IAM & Verwaltung.

      2. Wählen Sie mit der Projektauswahl das neue Hostprojekt aus.

      3. Klicken Sie auf Zugriff gewähren.

      4. Füllen Sie das Formular „Zugriff gewähren“ aus:

        1. Hauptkonten hinzufügen: Geben Sie das Dienstkonto ein.

        2. Rollen zuweisen: Geben Sie „Compute-Netzwerk“ in das Filterfeld ein und wählen Sie dann die Rolle Compute-Netzwerknutzer aus.

        3. Klicken Sie auf Speichern.

  3. Nachdem das Dienstkonto die Rolle Network User für das Hostprojekt hat, erstellen Sie einen Cluster der das freigegebene VPC-Netzwerk verwendet.

Cluster erstellen, der ein VPC-Subnetzwerk in einem anderen Projekt verwendet

Ein Managed Service for Apache Spark-Cluster kann ein freigegebenes VPC-Subnetzwerk verwenden, das in einem Hostprojekt definiert ist. Das Projekt, in dem der Managed Service for Apache Spark-Cluster erstellt wird, wird als Dienstprojekt bezeichnet.

  1. Suchen Sie die Projektnummer des Managed Service for Apache Spark-Clusters:

    1. Öffnen Sie in der Google Cloud Console die Seite IAM & Verwaltung Einstellungen. Wählen Sie das Projekt aus, in dem Sie den Managed Service for Apache Spark-Cluster erstellen möchten. Kopieren Sie die Projekt-ID.
  2. Ein Hauptkonto mit der Rolle „Administrator für freigegebene VPC“ muss die folgenden Schritte ausführen. Weitere Informationen finden Sie in der Anleitung unter Freigegebene VPC einrichten.

    1. Das freigegebene VPC-Hostprojekt muss aktiviert sein.

    2. Verknüpfen Sie das Projekt mit dem Managed Service for Apache Spark-Cluster mit dem Hostprojekt.

    3. Konfigurieren Sie das Dienstkonto des Managed Service for Apache Spark-Dienst-Agents (service-[project-number]@dataproc-accounts.iam.gserviceaccount.com) so, dass es die Rolle „Netzwerknutzer“ für das Hostprojekt hat:

      1. Öffnen Sie in der Google Cloud Console die VPC-Netzwerke Seite.

      2. Wählen Sie mit der Projektauswahl das Hostprojekt aus.

      3. Klicken Sie auf das Netzwerk, das das Subnetzwerk enthält, das Ihr Managed Service for Apache Spark-Cluster verwenden soll.

      4. Klicken Sie auf der Seite VPC-Netzwerkdetails das Kästchen neben dem Namen des Subnetzwerks an, das Ihr Cluster verwenden soll.

      5. Wenn das Infofeld nicht geöffnet ist, klicken Sie auf Infofeld ansehen.

      6. Führen Sie die folgenden Schritte für jedes Dienstkonto aus:

        1. Klicken Sie im Infofeld auf Hauptkonto hinzufügen.

        2. Füllen Sie das Formular „Zugriff gewähren“ aus:

          1. Hauptkonten hinzufügen: Geben Sie das Dienstkonto ein.

          2. Rollen zuweisen: Geben Sie „Compute-Netzwerk“ in das Filterfeld ein und wählen Sie dann die Rolle Compute-Netzwerknutzer aus.

          3. Klicken Sie auf Speichern.

  3. Nachdem das Dienstkonto die Rolle Network User für das Hostprojekt hat, erstellen Sie einen Cluster der das freigegebene VPC-Subnetzwerk verwendet.

Cluster mit nur internen IP-Adressen erstellen

Dieser Abschnitt gilt für Cluster mit Image-Versionen vor 2.2. Cluster-VMs mit nur internen IP-Adressen sind standardmäßig aktiviert, wenn Managed Service for Apache Spark Cluster mit Image-Versionen ab 2.2 erstellt werden.

Sie können die Google Cloud Console, die gcloud CLI oder die Dataproc API verwenden, um einen Cluster mit nur internen IP-Adressen zu erstellen. Beachten Sie, dass Managed Service for Apache Spark automatisch den privaten Google-Zugriff im regionalen Subnetz des Clusters aktiviert, wenn nur interne IP-Adressen aktiviert sind, um Verbindungen zu Google APIs und ‑Diensten zu ermöglichen.

Console

Sie können einen Managed Service for Apache Spark-Cluster mit nur internen IP-Adressen auf der Seite „Cluster erstellen“ von Managed Service for Apache Spark Cluster erstellen in der Google Cloud Console erstellen. Klicken Sie im Bereich Cluster anpassen auf Nur interne IP-Adresse , um dieses Feature für Ihren Cluster zu aktivieren.

gcloud CLI

Sie können einen Cluster mit nur internen IP-Adressen erstellen über den gcloud dataproc clusters create Befehl mit dem ‑‑no-address Flag.

gcloud dataproc clusters create CLUSTER_NAME \
    --no-address \
    --network NETWORK_NAME \
    --region=REGION \
    ... other args ...

Da automatische Netzwerke mit Subnetzen in jeder Region erstellt werden, wobei jedes Subnetzwerk den Namen des Netzwerks erhält, können Sie den Namen des automatischen Netzwerks an das ‑‑network flag übergeben. Auf diese Weise erstellen Sie einen Cluster, der das automatische Subnetzwerk in der Region des Clusters verwendet.

Alternativ können Sie das Flag ‑‑subnet verwenden, um einen Cluster zu erstellen, der ein automatisches oder benutzerdefiniertes Subnetzwerk in der Region verwendet, in der der Cluster erstellt wird. Übergeben Sie dem ‑‑subnet Flag den vollständigen Ressourcenpfad des Subnetzes.

gcloud dataproc clusters create cluster-name \
    --no-address \
    --subnet projects/project-id/regions/region/subnetworks/subnetwork-name \
    --region=region \
    ... other args ...

Google Cloud Google Cloud

REST API

Sie können das GceClusterConfig.internalIpOnly Feld im Rahmen einer clusters.create Anfrage verwenden, um einen Cluster zu erstellen, der nur interne IP-Adressen verwendet.

Beispiel :

POST /v1/projects/my-project-id/regions/us-central1/clusters/
{
  "projectId": "my-project-id",
  "clusterName": "example-cluster",
  "config": {
    "configBucket": "",
    "gceClusterConfig": {
      "subnetworkUri": "custom-subnet-1",
      "zoneUri": "us-central1-b",
      "internalIpOnly": true
    },
    ...

Google Cloud Google Cloud

Abhängigkeiten mit Clustern mit nur internen IP-Adressen herunterladen

Standardmäßig haben Cluster mit nur internen IP-Adressen keinen Zugriff auf das Internet. Daher schlagen Jobs, die Abhängigkeiten aus dem Internet herunterladen, z. B. Jobs, die Spark-Abhängigkeitspakete von Maven Central herunterladen, fehl. Es gibt mehrere Problemumgehungen, um das Problem zu vermeiden:

  1. Verwenden Sie Cloud NAT um den Clusterzugriff auf das Internet zu aktivieren.

  2. Erstellen Sie ein benutzerdefiniertes Image das die Abhängigkeiten enthält (z. B. Spark-Abhängigkeitspakete in /usr/lib/spark/jars/).

  3. Laden Sie die Abhängigkeiten in einen Cloud Storage-Bucket hoch und verwenden Sie dann eine Initialisierungsaktion, um die Abhängigkeiten während der Clustererstellung aus dem Bucket herunterzuladen.

Managed Service for Apache Spark- und VPC Service Controls-Netzwerke

Mit VPC Service Controls können Administratoren einen Sicherheitsbereich für Ressourcen aus von Google verwalteten Diensten festlegen, um die Kommunikation mit und zwischen diesen Diensten zu steuern.

Beachten Sie die folgenden Einschränkungen und Strategien bei Verwendung von VPC Service Controls-Netzwerken mit Managed Service for Apache Spark-Clustern:

Nächste Schritte