Documentazione di Managed Service per Apache Spark
La modalità di deployment del cluster Managed Service per Apache Spark ti consente di sfruttare gli strumenti per i dati open source per elaborazione batch, esecuzione di query, inserimento di flussi e machine learning. Il servizio gestito per l'automazione di Apache Spark ti aiuta a creare i cluster rapidamente, a gestirli con facilità e a risparmiare denaro disattivandoli quando non ti servono. Risparmiando tempo e denaro sull'amministrazione, puoi concentrarti sui tuoi progetti e sui tuoi dati.
Per saperne di più, vai alla pagina del prodotto Managed Service per Apache Spark.
Inizia la tua proof of concept con 300 $di credito senza costi
- Sviluppa con i nostri modelli e strumenti di AI generativa più recenti.
- Usufruisci dell'utilizzo senza costi di oltre 20 tra i prodotti più apprezzati, tra cui Compute Engine e le API AI.
- Nessun addebito automatico, nessun impegno
Continua a esplorare con oltre 20 prodotti sempre senza costi.
Accedi a oltre 20 prodotti senza costi per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.
Risorse di documentazione
Guide
Risorse correlate
Esegui un job Spark su Google Kubernetes Engine
Invia job Spark a un cluster Google Kubernetes Engine in esecuzione dall'API Dataproc Jobs.
Introduction to Cloud Dataproc: Hadoop and Spark on Google Cloud
Questo corso offre una combinazione di lezioni, demo e lab pratici per creare un cluster Dataproc, inviare un job Spark e poi arrestare il cluster.
Machine learning con Spark su Dataproc
Questo corso presenta una combinazione di lezioni, demo e lab pratici per implementare la regressione logistica utilizzando una libreria di machine learning per Apache Spark in esecuzione su un cluster Dataproc per sviluppare un modello per i dati di un set di dati multivariato.
Soluzioni di pianificazione del flusso di lavoro
Pianifica i workflow su Google Cloud.
Migrazione dei dati HDFS da on-premise a Google Cloud
Come spostare i dati da Hadoop Distributed File System (HDFS) on-premise a Google Cloud.
Gestisci le dipendenze Java e Scala per Apache Spark
Approcci consigliati per includere le dipendenze quando invii un job Spark a un cluster Managed Service per Apache Spark.