Panoramica del deployment serverless di Managed Service per Apache Spark

Il deployment serverless di Managed Service per Apache Spark ti consente di eseguire workload Spark senza richiedere il provisioning e la gestione del tuo cluster Managed Service per Apache Spark. Esistono due modi per eseguire i workload di Managed Service per Apache Spark: workload batch e sessioni interattive.

Workload batch

Invia un carico di lavoro batch utilizzando la consoleGoogle Cloud , Google Cloud CLI o l'API REST. Managed Service for Apache Spark esegue il carico di lavoro su un'infrastruttura di calcolo gestita, scalando automaticamente le risorse in base alle esigenze. Gli addebiti si applicano solo al periodo di esecuzione del workload.

Funzionalità del workload batch

Puoi eseguire i seguenti tipi di carichi di lavoro batch:

  • PySpark
  • Spark SQL
  • Spark R
  • Spark (Java o Scala)

Puoi specificare le proprietà Spark quando invii un carico di lavoro batch.

Pianifica i workload batch

Puoi pianificare un workload batch Spark nell'ambito di un workflow Airflow o Managed Service for Apache Airflow utilizzando un operatore batch Airflow. Per ulteriori informazioni, consulta Esegui workload Managed Service for Apache Spark con Managed Airflow.

Inizia

Per iniziare, consulta Esegui un workload batch Apache Spark.

Sessioni interattive

Scrivi ed esegui codice nei notebook Jupyter durante una sessione interattiva. Puoi creare una sessione del notebook nei seguenti modi:

  • Esegui il codice PySpark nei notebook di BigQuery Studio. Apri un notebook Python BigQuery per creare una sessione interattiva di Managed Service for Apache Spark basata su Spark Connect. A ogni notebook BigQuery può essere associata una sola sessione Managed Service for Apache Spark attiva.

  • Utilizza il plug-in JupyterLab per creare più sessioni del notebook Jupyter da modelli che crei e gestisci. Quando installi il plug-in su una macchina locale o su una VM Compute Engine, nella pagina di avvio di JupyterLab vengono visualizzate diverse schede corrispondenti a diverse configurazioni del kernel Spark. Fai clic su una scheda per creare una sessione del notebook Managed Service for Apache Spark, quindi inizia a scrivere e testare il codice nel notebook.

    Il plug-in JupyterLab ti consente anche di utilizzare la pagina di avvio di JupyterLab per eseguire le seguenti azioni:

    • Crea cluster Managed Service per Apache Spark.
    • Inviare job ai cluster.
    • Visualizza i log Google Cloud e Spark.

Conformità ai requisiti di sicurezza

Managed Service for Apache Spark rispetta tutti i requisiti di residenza dei dati, CMEK, VPC-SC e altri requisiti di sicurezza a cui Managed Service for Apache Spark è conforme.