Dokumentation zu Managed Service for Apache Spark
Mit dem Bereitstellungsmodus für Managed Service for Apache Spark-Cluster können Sie Open-Source-Datentools für Batchverarbeitung, Abfragen, Streaming und maschinelles Lernen nutzen. Mit dem Managed Service für die Apache Spark-Automatisierung lassen sich Cluster schnell erstellen, einfach verwalten und Kosten senken, weil Sie nicht mehr benötigte Cluster deaktivieren können. Da Sie weniger Zeit und Geld für die Verwaltung aufwenden, können Sie sich besser auf Ihre Jobs und Daten konzentrieren.
Weitere Informationen finden Sie auf der Produktseite zu Managed Service for Apache Spark.
Proof of Concept mit einem Guthaben in Höhe von 300 $ starten
- Nutzen Sie unsere neuesten generativen KI-Modelle und Tools für die Entwicklung.
- Sie können mehr als 20 beliebte Produkte wie Compute Engine und KIAI APIs kostenlos nutzen.
- Keine automatischen Abbuchungen, keine Verpflichtung.
Mehr als 20 Produkte immer kostenlos nutzen.
Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.
Dokumentationsressourcen
Leitfäden
-
Kurzanleitungen: Console, Befehlszeile, Clientbibliotheken, APIs Explorer – Cluster erstellen oder APIs Explorer – Spark-Job senden
Weitere Informationen
Spark-Job in Google Kubernetes Engine ausführen
Spark-Jobs über die Dataproc Jobs API an einen ausgeführten Google Kubernetes Engine-Cluster senden
Einführung in Cloud Dataproc: Hadoop und Spark in Google Cloud
Dieser Kurs enthält eine Kombination aus Vorträgen, Demos und praxisorientierten Labs zum Erstellen eines Dataproc-Clusters, zum Senden eines Spark-Jobs und zum anschließenden Herunterfahren des Clusters.
Maschinelles Lernen mit Spark in Dataproc
Dieser Kurs bietet eine Kombination aus Vorträgen, Demos und praxisorientierten Labs zur Implementierung der logistischen Regression mit einer ML-Bibliothek von Apache Spark, das in einem Dataproc-Cluster ausgeführt wird. So können Sie ein Modell für Daten aus einem multivariaten Dataset entwickeln.
Lokale HDFS-Daten zu Google Cloud migrieren
Informationen zum Verschieben von Daten aus einem lokalen Hadoop Distributed File System (HDFS) zu Google Cloud.
Java- und Scala-Abhängigkeiten für Apache Spark verwalten
Empfohlene Ansätze zum Einbinden von Abhängigkeiten, wenn Sie einen Spark-Job an einen Managed Service for Apache Spark-Cluster senden.