Dokumentation zu Managed Service for Apache Spark

Mit dem Bereitstellungsmodus für Managed Service for Apache Spark-Cluster können Sie Open-Source-Datentools für Batchverarbeitung, Abfragen, Streaming und maschinelles Lernen nutzen. Mit dem Managed Service für die Apache Spark-Automatisierung lassen sich Cluster schnell erstellen, einfach verwalten und Kosten senken, weil Sie nicht mehr benötigte Cluster deaktivieren können. Da Sie weniger Zeit und Geld für die Verwaltung aufwenden, können Sie sich besser auf Ihre Jobs und Daten konzentrieren.

Weitere Informationen finden Sie auf der Produktseite zu Managed Service for Apache Spark.

  • Nutzen Sie unsere neuesten generativen KI-Modelle und Tools für die Entwicklung.
  • Sie können mehr als 20 beliebte Produkte wie Compute Engine und KIAI APIs kostenlos nutzen.
  • Keine automatischen Abbuchungen, keine Verpflichtung.

Mehr als 20 Produkte immer kostenlos nutzen.

Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.

Entdecken Sie Schulungen, Anwendungsfälle, Referenzarchitekturen und Codebeispiele mit Details zur Verwendung und Verbindung von Diensten von Google Cloud .
Training
Schulungen und Tutorials

Spark-Jobs über die Dataproc Jobs API an einen ausgeführten Google Kubernetes Engine-Cluster senden

Training
Schulungen und Tutorials

Dieser Kurs enthält eine Kombination aus Vorträgen, Demos und praxisorientierten Labs zum Erstellen eines Dataproc-Clusters, zum Senden eines Spark-Jobs und zum anschließenden Herunterfahren des Clusters.

Training
Schulungen und Tutorials

Dieser Kurs bietet eine Kombination aus Vorträgen, Demos und praxisorientierten Labs zur Implementierung der logistischen Regression mit einer ML-Bibliothek von Apache Spark, das in einem Dataproc-Cluster ausgeführt wird. So können Sie ein Modell für Daten aus einem multivariaten Dataset entwickeln.

Anwendungsfall
Anwendungsfälle

Workflows in Google Cloud planen

Anwendungsfall
Anwendungsfälle

Informationen zum Verschieben von Daten aus einem lokalen Hadoop Distributed File System (HDFS) zu Google Cloud.

Anwendungsfall
Anwendungsfälle

Empfohlene Ansätze zum Einbinden von Abhängigkeiten, wenn Sie einen Spark-Job an einen Managed Service for Apache Spark-Cluster senden.

Codebeispiel
Codebeispiele

Dataproc-APIs aus Python aufrufen

Codebeispiel
Codebeispiele

Dataproc-APIs aus Java aufrufen

Codebeispiel
Codebeispiele

Dataproc-APIs über Node.js aufrufen

Codebeispiel
Codebeispiele

Dataproc-APIs über Go aufrufen

Ähnliche Videos