Modèles Managed Service pour Apache Spark

Pour configurer et exécuter des charges de travail et des jobs Managed Service pour Apache Spark, utilisez les modèles Managed Service pour Apache Spark sur GitHub.

Les modèles sont fournis dans les environnements d'exécution et les langues suivants :

  • Modèles d'orchestration Airflow: Exécutez des jobs Spark à partir de DAG dans Airflow.
  • Modèles Java : exécutez des charges de travail ou des jobs par lot Spark sur Managed Service pour Apache Spark ou sur un cluster Managed Service pour Apache Spark existant.
  • Modèles Python : exécutez des charges de travail par lot PySpark sur Managed Service pour Apache Spark.
  • Modèles de notebook : exécutez des jobs Spark à l'aide de notebooks Vertex AI.