Documentazione di Managed Service per Apache Spark

La modalità di deployment del cluster Managed Service per Apache Spark ti consente di sfruttare gli strumenti per i dati open source per elaborazione batch, esecuzione di query, inserimento di flussi e machine learning. Il servizio gestito per l'automazione di Apache Spark ti aiuta a creare i cluster rapidamente, a gestirli con facilità e a risparmiare denaro disattivandoli quando non ti servono. Risparmiando tempo e denaro sull'amministrazione, puoi concentrarti sui tuoi progetti e sui tuoi dati.

Per saperne di più, vai alla pagina del prodotto Managed Service per Apache Spark.

  • Sviluppa con i nostri modelli e strumenti di AI generativa più recenti.
  • Usufruisci dell'utilizzo senza costi di oltre 20 tra i prodotti più apprezzati, tra cui Compute Engine e le API AI.
  • Nessun addebito automatico, nessun impegno

Continua a esplorare con oltre 20 prodotti sempre senza costi.

Accedi a oltre 20 prodotti senza costi per casi d'uso comuni, tra cui API AI, VM, data warehouse e altro ancora.

Esplora la formazione autonoma, i casi d'uso, le architetture di riferimento e gli esempi di codice con esempi su come utilizzare e collegare i servizi Google Cloud .
Formazione
Formazione e tutorial

Invia job Spark a un cluster Google Kubernetes Engine in esecuzione dall'API Dataproc Jobs.

Formazione
Formazione e tutorial

Questo corso offre una combinazione di lezioni, demo e lab pratici per creare un cluster Dataproc, inviare un job Spark e poi arrestare il cluster.

Formazione
Formazione e tutorial

Questo corso presenta una combinazione di lezioni, demo e lab pratici per implementare la regressione logistica utilizzando una libreria di machine learning per Apache Spark in esecuzione su un cluster Dataproc per sviluppare un modello per i dati di un set di dati multivariato.

Caso d'uso
Casi d'uso

Pianifica i workflow su Google Cloud.

Caso d'uso
Casi d'uso

Come spostare i dati da Hadoop Distributed File System (HDFS) on-premise a Google Cloud.

Caso d'uso
Casi d'uso

Approcci consigliati per includere le dipendenze quando invii un job Spark a un cluster Managed Service per Apache Spark.

Esempio di codice
Esempi di codice

Chiama le API Dataproc da Python.

Esempio di codice
Esempi di codice

Chiama le API Dataproc da Java.

Esempio di codice
Esempi di codice

Chiama le API Dataproc da Node.js.

Esempio di codice
Esempi di codice

Chiama le API Dataproc da Go.

Video correlati