Sie können zusätzliche Komponenten wie Jupyter installieren, wenn Sie einen Dataproc Cluster mit dem Feature Optionale Komponenten erstellen. Auf dieser Seite wird die Jupyter-Komponente erläutert.
Die Jupyter-Komponente
ist ein webbasiertes Einzelnutzer-Notebook für interaktive Datenanalysen und unterstützt die
JupyterLab
-Webbenutzeroberfläche. Die Jupyter-Webbenutzeroberfläche ist über Port 8123 auf dem ersten Masterknoten des Clusters verfügbar.
Notebooks für mehrere Nutzer starten Sie können eine Dataproc-fähige Vertex AI Workbench-Instanz erstellen oder das Dataproc JupyterLab-Plug-in auf einer VM installieren, um Notebooks für mehrere Nutzer bereitzustellen.
Jupyter konfigurieren Jupyter kann mit den dataproc:jupyter
Clusterattributen konfiguriert werden.
Um das Risiko der Remotecodeausführung über unsichere Notebookserver
APIs zu verringern, ist die Standardeinstellung für das Clusterattribut dataproc:jupyter.listen.all.interfaces false. Dadurch werden Verbindungen zu localhost (127.0.0.1) eingeschränkt, wenn
das Component Gateway aktiviert ist. Die Aktivierung des Component Gateway ist erforderlich, wenn die Jupyter-Komponente installiert wird.
Das Jupyter Notebook verwendet einen Python-Kernel zur Ausführung von Spark-Code und einen
PySpark-Kernel. Notebooks werden standardmäßig im Cloud Dataproc-Staging-Bucket in Cloud Storage gespeichert
. Dieser Bucket wird vom Nutzer festgelegt oder
bei der Clustererstellung automatisch generiert
. Der Speicherort kann bei der Clustererstellung mit dem
dataproc:jupyter.notebook.gcs.dir Clusterattribut geändert werden.
Mit Datendateien arbeiten Mit einem Jupyter-Notebook können Sie mit Datendateien arbeiten, die in Cloud Storage hochgeladen wurden. Da der Cloud Storage-Connector auf einem Dataproc-Cluster vorinstalliert ist, können Sie direkt in Ihrem Notebook auf die Dateien verweisen. Das im Folgenden aufgeführte Beispiel zeigt den Zugriff auf CSV-Dateien in Cloud Storage:
df = spark.read.csv("gs://bucket/path/file.csv")
df.show()
PySpark-Beispiele finden Sie unter Generische Laden- und Speichern-Funktionen.
Jupyter installieren
Installieren Sie die Komponente, wenn Sie einen Dataproc-Cluster erstellen. Für die Jupyter-Komponente muss das Dataproc Component Gateway aktiviert sein.
Console
- Aktivieren Sie die Komponente.
- Öffnen Sie in der Google Cloud console die Dataproc Cluster erstellen Seite. Der Bereich Cluster einrichten ist ausgewählt.
- Im Bereich Komponenten :
- Wählen Sie unter Optionale Komponenten die Komponente Jupyter aus.
- Wählen Sie unter Component Gateway die Option Component Gateway aktivieren aus (siehe Component Gateway-URLs ansehen und aufrufen).
gcloud-CLI
Verwenden Sie den
gcloud dataproc clusters create cluster-name Befehl mit dem --optional-components Flag, um einen Dataproc-Cluster mit der Jupyter-Komponente zu erstellen.
Beispiel für die neueste Standard-Image-Version
Im folgenden Beispiel wird die Jupyter Komponente auf einem Cluster installiert, der die neueste Standard-Image-Version verwendet.
gcloud dataproc clusters create cluster-name \ --optional-components=JUPYTER \ --region=region \ --enable-component-gateway \ ... other flags
REST API
Die Jupyter-Komponente
kann über die Dataproc API mit
SoftwareConfig.Component
als Teil einer
clusters.create
Anfrage installiert werden.
- Legen Sie das Attribut EndpointConfig.enableHttpPortAccess
auf
trueals Teil derclusters.createAnfrage fest, um die Verbindung zur Jupyter-Notebook-Web-UI mithilfe von Component Gateway zu aktivieren.
Jupyter-UI und JupyterLab-UI öffnen
Klicken Sie in der Google Cloud Console auf die Links zum Component Gateway , um in Ihrem lokalen Browser das Jupyter-Notebook oder die JupyterLab-UI zu öffnen, die auf dem Masterknoten des Clusters ausgeführt werden.
Wählen Sie „GCS“ oder „Lokales Laufwerk“ aus, um an beiden Orten ein neues Jupyter-Notebook zu erstellen.
Master- und Worker-Knoten GPUs hinzufügen
Sie können den Master- und Worker-Knoten Ihres Clusters GPUs hinzufügen , wenn Sie ein Jupyter-Notebook für folgende Aufgaben verwenden:
- Daten in Spark vorverarbeiten, dann einen DataFrame auf dem Master erfassen und TensorFlow ausführen
- Spark zur parallelen Orchestrierung von TensorFlow-Ausführungen verwenden
- Tensorflow-on-YARN ausführen
- In anderen ML-Szenarien verwenden, die GPUs verwenden