Les composants Managed Service pour Apache Spark vous permettent d'exécuter des charges de travail par lot Apache Spark à partir d'un pipeline dans Vertex AI Pipelines. Managed Service pour Apache Spark exécute les charges de travail par lot sur une infrastructure de calcul gérée en effectuant un autoscaling des ressources selon les besoins.
Apprenez-en davantage sur Managed Service pour Apache Spark et les charges de travail Spark compatibles.
Dans Managed Service pour Apache Spark, une ressource Batch représente une charge de travail par lot.
Le Google Cloud SDK comprend les opérateurs suivants permettant de
créer Batch ressources et surveiller leur exécution :
Documentation de référence de l'API
Pour en savoir plus sur les composants, consultez la Google Cloud documentation de référence du SDK pour les composants Managed Service pour Apache Spark .
Pour en savoir plus sur les ressources Managed Service pour Apache Spark, consultez la page de référence de l'API suivante :
Batchressource
Tutoriels
Historique des versions et notes de version
Pour en savoir plus sur l'historique des versions et les modifications apportées au Google Cloud SDK des composants de pipeline, consultez les Google Cloud notes de version du SDK des composants de pipeline.
Contacts pour l'assistance technique
Si vous avez des questions, veuillez contacter kfp-dataproc-components@google.com.