Panoramica di Serverless per Apache Spark

Google Cloud Serverless per Apache Spark consente di eseguire workload Spark senza dover eseguire il provisioning e gestire il proprio cluster Dataproc. Esistono due modi per eseguire i workload Serverless per Apache Spark: workload batch e sessioni interattive.

Workload batch

Invia un workload batch al servizio Serverless per Apache Spark utilizzando la Google Cloud console, Google Cloud CLI o l'API Dataproc. Il servizio esegue il workload su un'infrastruttura di calcolo gestita, scalando automaticamente le risorse in base alle esigenze. I costi di Serverless per Apache Spark si applicano solo al periodo di esecuzione del workload.

Funzionalità dei workload batch

Puoi eseguire i seguenti tipi di workload batch Serverless per Apache Spark:

  • PySpark
  • Spark SQL
  • Spark R
  • Spark (Java o Scala)

Puoi specificare le proprietà di Spark quando invii un workload batch Serverless per Apache Spark.

Pianificare i workload batch

Puoi pianificare un workload batch Spark come parte di un Airflow o Cloud Composer utilizzando un operatore batch Airflow. Per saperne di più, vedi Eseguire workload Serverless per Apache Spark con Cloud Composer.

Inizia

Per iniziare, vedi Eseguire un workload batch Apache Spark.

Sessioni interattive

Scrivi ed esegui il codice nei notebook Jupyter durante una sessione interattiva Serverless per Apache Spark. Puoi creare una sessione del notebook nei seguenti modi:

  • Esegui il codice PySpark nei notebook di BigQuery Studio. Apri un notebook Python di BigQuery per creare una sessione interattiva Serverless per Apache Spark basata su Spark Connect. Ogni notebook BigQuery può avere associata una sola sessione Serverless per Apache Spark attiva.

  • Utilizza il plug-in JupyterLab di Dataproc per creare più sessioni di notebook Jupyter da modelli che crei e gestisci. Quando installi il plug-in su una macchina locale o su una VM Compute Engine, nella pagina di avvio di JupyterLab vengono visualizzate diverse schede che corrispondono a configurazioni del kernel Spark diverse. Fai clic su una scheda per creare una sessione del notebook Serverless per Apache Spark, quindi inizia a scrivere e testare il codice nel notebook.

    Il plug-in JupyterLab di Dataproc ti consente anche di utilizzare la pagina di avvio di JupyterLab per eseguire le seguenti azioni:

    • Crea cluster Dataproc su Compute Engine.
    • Invia job ai cluster Dataproc su Compute Engine.
    • Visualizza i log di Spark. Google Cloud

Conformità ai requisiti di sicurezza

Serverless per Apache Spark rispetta tutti i requisiti di residenza dei dati, CMEK, VPC-SC, e altri requisiti di sicurezza a cui Dataproc è conforme.