Datenpipeline erstellen
In dieser Kurzanleitung erfahren Sie, wie Sie Folgendes tun:
- Erstellen Sie eine Cloud Data Fusion-Instanz.
- Beispielpipeline bereitstellen, die in Ihrer Cloud Data Fusion-Instanz bereitgestellt wird Die Pipeline führt Folgendes aus:
- Eine JSON-Datei mit NYT-Bestseller-Daten aus Cloud Storage lesen
- Transformationen an der Datei ausführen, um die Daten zu analysieren und zu bereinigen
- Die bestbewerteten Bücher, die in der letzten Woche hinzugefügt wurden und weniger als 25 $ kosten, in BigQuery laden
Hinweis
Führen Sie die folgenden Schritte aus, bevor Sie eine Datenpipeline erstellen.
Projekt einrichten
- Melden Sie sich in Ihrem Google Cloud -Konto an. Wenn Sie noch kein Google Cloud-Konto haben, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
Enable the Cloud Data Fusion API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
Enable the Cloud Data Fusion API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
Erforderliche Rollen
Bitten Sie Ihren Administrator, Ihnen die IAM-Rolle „Cloud Data Fusion-Administrator “ (roles/datafusion.admin) für das Projekt zuzuweisen, um die Berechtigungen zu erhalten, die Sie zum Erstellen einer Cloud Data Fusion-Instanz und zum Verwalten von Pipelines benötigen.
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
Bitten Sie Ihren Administrator, dem Compute Engine-Standarddienstkonto die folgenden IAM-Rollen für Ihr Projekt zuzuweisen, damit das Compute Engine-Standarddienstkonto die erforderlichen Berechtigungen zum Ausführen des Dataproc-Jobs hat:
-
Dataproc-Worker (
roles/dataproc.worker) -
Cloud Data Fusion-Ausführer (
roles/datafusion.runner)
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Ihr Administrator kann dem Compute Engine-Standarddienstkonto die erforderlichen Berechtigungen möglicherweise auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen zuweisen.
Erstellen Sie eine Cloud Data Fusion-Instanz.
- Klicken Sie auf Instanz erstellen.
- Geben Sie einen Instanznamen ein.
- Geben Sie eine Beschreibung für Ihre Instanz ein.
- Geben Sie die Region ein, in der die Instanz erstellt werden soll.
- Wählen Sie die zu verwendende Version von Cloud Data Fusion aus.
- Wählen Sie die Edition von Cloud Data Fusion aus.
- Wählen Sie für Cloud Data Fusion Version 6.2.3 und höher im Feld Autorisierung das Dataproc-Dienstkonto aus, das zum Ausführen Ihrer Cloud Data Fusion-Pipeline in Dataproc verwendet werden soll. Der Standardwert, das Compute Engine-Konto, ist bereits ausgewählt.
- Klicken Sie auf Erstellen. Es kann bis zu 30 Minuten dauern, bis die Instanz erstellt ist. Während Cloud Data Fusion die Instanz erstellt, wird neben dem Instanznamen auf der Seite Instanzen ein Radsymbol angezeigt, das den Fortschritt angibt. Nachdem der Vorgang abgeschlossen ist, wird es zu einem grünen Häkchen. Dies zeigt an, dass Sie die Instanz verwenden können.
Weboberfläche von Cloud Data Fusion meistern
Bei Verwendung von Cloud Data Fusion verwenden Sie sowohl die Google Cloud console als auch die separate Weboberfläche von Cloud Data Fusion.
In der Google Cloud console können Sie Folgendes tun:
- console-Projekt erstellen Google Cloud
- Cloud Data Fusion-Instanzen erstellen und löschen
- Details zur Cloud Data Fusion-Instanz ansehen
In der Weboberfläche von Cloud Data Fusion können Sie die verschiedenen Seiten wie Studio oder Wrangler nutzen, um die Funktionen von Cloud Data Fusion zu nutzen.
So navigieren Sie in der Cloud Data Fusion-Oberfläche:
- Öffnen Sie in der Google Cloud console die Seite Instanzen.
- Klicken Sie in der Spalte Aktionen der Instanz auf den Link Instanz aufrufen.
- Rufen Sie in der Weboberfläche von Cloud Data Fusion über den linken Navigationsbereich die gewünschte Seite auf.
Beispielpipeline bereitstellen
Beispielpipelines sind über den Cloud Data Fusion Hub verfügbar, mit dem Sie wiederverwendbare Pipelines, Plug-ins und Lösungen für Cloud Data Fusion teilen können.
- Klicken Sie in der Weboberfläche von Cloud Data Fusion auf Hub.
- Klicken Sie im linken Bereich auf Pipelines.
- Klicken Sie auf die Pipeline Cloud Data Fusion-Quickstart.
- Klicken Sie auf Erstellen.
- Klicken Sie im Cloud Data Fusion-Quickstart-Konfigurationsbereich auf Fertigstellen.
Klicken Sie auf Pipeline anpassen.
Eine visuelle Darstellung Ihrer Pipeline wird auf der Seite Studio angezeigt. Dies ist eine grafische Benutzeroberfläche zur Entwicklung von Pipelines zur Datenintegration. Auf der linken Seite sind die Pipeline-Plug-ins aufgelistet und Ihre Pipeline wird im Hauptbereich angezeigt. Sie können Ihre Pipeline untersuchen, indem Sie den Mauszeiger auf die einzelnen Knoten der Pipeline bewegen und auf Eigenschaften klicken. Über das Menü „Eigenschaften“ für jeden Knoten können Sie die mit dem Knoten verknüpften Objekte und Vorgänge aufrufen.
Klicken Sie im Menü oben rechts auf Deploy (Bereitstellen). Dadurch wird die Pipeline an Cloud Data Fusion gesendet. Im nächsten Abschnitt dieser Kurzanleitung führen Sie die Pipeline aus.

Pipeline anzeigen
Die bereitgestellte Pipeline wird in der Ansicht der Pipelinedetails angezeigt. Hier können Sie Folgendes tun:
- Struktur und Konfiguration der Pipeline anzeigen
- Pipeline manuell ausführen oder einen Zeitplan bzw. Trigger einrichten
- Zusammenfassung des Ausführungsverlaufs der Pipeline anzeigen, einschließlich Ausführungszeiten, Logs und Messwerte

Pipeline ausführen
Klicken Sie in der Ansicht „Pipelinedetails“ auf Ausführen, um die Pipeline auszuführen.

Beim Ausführen einer Pipeline führt Cloud Data Fusion folgende Schritte aus:
- Stellt einen sitzungsspezifischen Dataproc-Cluster bereit
- Führt die Pipeline mithilfe von Apache Spark im Cluster aus
- Löscht den Cluster
Ergebnisse aufrufen
Nach einigen Minuten ist die Pipeline abgeschlossen. Der Pipelinestatus ändert sich in Erfolgreich und die Anzahl der von jedem Knoten verarbeiteten Datensätze wird angezeigt.

- Rufen Sie die BigQuery-Weboberfläche auf.
Wenn Sie ein Beispiel der Ergebnisse aufrufen möchten, rufen Sie das Dataset
DataFusionQuickstartin Ihrem Projekt auf, klicken Sie auf die Tabelletop_rated_inexpensiveund führen Sie eine einfache Abfrage aus. Beispiel:SELECT * FROM PROJECT_ID.GCPQuickStart.top_rated_inexpensive LIMIT 10Ersetzen Sie PROJECT_ID durch Ihre Projekt-ID.

Bereinigen
Mit den folgenden Schritten vermeiden Sie, dass Ihrem Google Cloud -Konto die auf dieser Seite verwendeten Ressourcen in Rechnung gestellt werden:
- Löschen Sie das BigQuery-Dataset in das die Pipeline in dieser Kurzanleitung geschrieben hat.
Optional: Löschen Sie das Projekt.
- Wechseln Sie in der Google Cloud console zur Seite Ressourcen verwalten.
- Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
- Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.
Nächste Schritte
- Anleitung zu Cloud Data Fusion
- Informationen über Konzepte zu Cloud Data Fusion Konzepte