Adaptation des ressources

La fonctionnalité d'adaptation des ressources utilise des optimisations de ressources Apache Beam pour personnaliser les ressources de nœuds de calcul d'un pipeline. La possibilité de cibler plusieurs ressources différentes par étapes de pipeline spécifiques offre au pipeline une flexibilité et une capacité supplémentaires, ainsi que des économies potentielles. Vous pouvez appliquer des ressources plus coûteuses aux étapes de pipeline qui les nécessitent, et des ressources moins coûteuses à d'autres étapes du pipeline. Utilisez l'ajustement approprié pour spécifier les besoins en ressources d'un pipeline entier ou d'étapes de pipeline spécifiques.

Compatibilité et limites

  • Les optimisations de ressources sont compatibles avec les SDK Java et Python Apache Beam versions 2.31.0 et ultérieures.
  • L'adaptation des ressources est possible avec les pipelines de traitement par lot.
  • L'adaptation des ressources est possible avec les pipelines de traitement par flux pour lesquels l'autoscaling horizontal est activé.

  • L'adaptation des ressources est compatible avec Dataflow Prime.

  • L'adaptation des ressources n'est pas compatible avec FlexRS.

  • Lorsque vous utilisez l'adaptation des ressources, n'utilisez pas l'option de service worker_accelerator.

Activer l'adaptation des ressources

Pour activer l'adaptation des ressources, utilisez une ou plusieurs des optimisations de ressources disponibles dans votre pipeline. Lorsque vous utilisez une optimisation de ressource dans votre pipeline, l'adaptation des ressources est automatiquement activée. Pour en savoir plus, consultez la section Utiliser les optimisations de ressources de ce document.

Optimisations de ressources disponibles

Les optimisations de ressources suivantes sont disponibles.

Optimisation de ressource Description
min_ram

Quantité minimale de mémoire RAM en gigaoctets à allouer aux nœuds de calcul. Dataflow utilise cette valeur comme limite inférieure lors de l'allocation de mémoire à de nouveaux nœuds de calcul (scaling horizontal) ou à des nœuds de calcul existants (scaling vertical).

Exemple :

min_ram=NUMBERGB
  • Remplacez NUMBER par la valeur minimale de la mémoire de nœud de calcul requise par votre pipeline ou votre étape de pipeline.
  • min_ram est une spécification d'agrégat, par nœud de calcul. Il ne s'agit pas d'une spécification par processeur virtuel. Par exemple, si vous définissez min_ram=15GB, Dataflow définit la mémoire globale disponible sur tous les processeurs virtuels du nœud de calcul sur au moins 15 Go.
accelerator

Allocation de GPU fournie par l'utilisateur qui vous permet de contrôler l'utilisation et le coût des GPU dans votre pipeline et ses étapes. Spécifiez le type et le nombre de GPU à associer aux nœuds de calcul Dataflow en tant que paramètres de l'option.

Exemple :

accelerator="type:GPU_TYPE;count:GPU_COUNT;machine_type:MACHINE_TYPE;CONFIGURATION_OPTIONS"
  • Remplacez GPU_TYPE par le type de GPU à utiliser. Pour obtenir la liste des types de GPU compatibles avec Dataflow, consultez la page Compatibilité de Dataflow avec les GPU.
  • Remplacez GPU_COUNT par le nombre de GPU à utiliser.
  • Facultatif : Remplacez MACHINE_TYPE par le type de machine à utiliser avec vos GPU.
    • Le type de machine doit être compatible avec le type de GPU sélectionné. Pour en savoir plus sur les types de GPU et leurs types de machines compatibles, consultez la page Plates-formes GPU.
    • Si vous spécifiez un type de machine à la fois dans l'optimisation de ressource accelerator et dans l'option de pipeline du type de machine de nœud de calcul, l'option de pipeline est ignorée lors de l'adaptation des ressources.
  • Pour utiliser des GPU NVIDIA avec Dataflow, définissez l'option de configuration install-nvidia-driver.

Pour en savoir plus sur l'utilisation des GPU, consultez la page GPU avec Dataflow.

Optimisation imbriquée de ressources

Les optimisations de ressources sont appliquées à la hiérarchie des transformations du pipeline comme suit :

  • min_ram : la valeur d'une transformation est évaluée comme la plus grande valeur d'optimisation min_ram parmi les valeurs définies sur la transformation elle-même et tous ses parents dans la hiérarchie de la transformation.
    • Exemple : Si une optimisation de transformation interne définit min_ram sur 16 Go et que l'optimisation de transformation externe dans la hiérarchie définit min_ram sur 32 Go, une optimisation de 32 Go sera utilisée pour toutes les étapes de la transformation complète.
    • Exemple : Si une optimisation de la transformation interne définit min_ram sur 16 Go et que l'optimisation de transformation externe dans la hiérarchie définit min_ram sur 8 Go, une optimisation de 8 Go sera utilisée pour toutes les étapes de la transformation externe qui ne se trouvent pas dans la transformation interne, et une optimisation de 16 Go sera utilisée pour toutes les étapes de la transformation interne.
  • accelerator : la valeur la plus profonde de la hiérarchie de la transformation est prioritaire.
    • Exemple : Si l'optimisation de transformation accelerator d'une transformation interne est différente de celle d'une transformation externe accelerator dans une hiérarchie, l'optimisation de transformation interne accelerator sera utilisée pour la transformation interne.

Les indicateurs définis pour l'ensemble du pipeline sont traités comme s'ils étaient définis sur une transformation externe.

Utiliser les optimisations de ressources

Vous pouvez définir des optimisations de ressources sur l'ensemble du pipeline ou sur les étapes du pipeline.

Optimisations de ressources de pipeline

Vous pouvez définir des optimisations de ressources sur l'ensemble du pipeline lorsque vous l'exécutez à partir de la ligne de commande.

Pour configurer votre environnement Python, consultez le tutoriel Python.

Exemple :

    python my_pipeline.py \
        --runner=DataflowRunner \
        --resource_hints=min_ram=numberGB \
        --resource_hints=accelerator="type:type;count:number;install-nvidia-driver" \
        ...

Optimisations de ressources d'une étape de pipeline

Vous pouvez définir des optimisations de ressources pour les étapes du pipeline (transformations) par programmation.

Java

Pour installer le SDK Apache Beam pour Java, consultez la page Installer le SDK Apache Beam.

Vous pouvez définir des optimisations de ressources par programmation sur les transformations de pipeline à l'aide de la classe ResourceHints.

L'exemple suivant montre comment définir des optimisations de ressources par programmation sur des transformations de pipeline.

pcoll.apply(MyCompositeTransform.of(...)
    .setResourceHints(
        ResourceHints.create()
            .withMinRam("15GB")
            .withAccelerator(
    "type:nvidia-l4;count:1;install-nvidia-driver")))

pcoll.apply(ParDo.of(new BigMemFn())
    .setResourceHints(
        ResourceHints.create().withMinRam("30GB")))

Pour définir de manière automatisée des optimisations de ressources sur l'ensemble du pipeline, utilisez l'interface ResourceHintsOptions.

Python

Pour installer le SDK Apache Beam pour Python, consultez la page Installer le SDK Apache Beam.

Vous pouvez définir des optimisations de ressources par programmation sur les transformations de pipeline à l'aide de la classe PTransforms.with_resource_hints. Pour en savoir plus, consultez la section concernant la classe ResourceHint.

L'exemple suivant montre comment définir des optimisations de ressources par programmation sur des transformations de pipeline.

pcoll | MyPTransform().with_resource_hints(
    min_ram="4GB",
    accelerator="type:nvidia-tesla-l4;count:1;install-nvidia-driver")

pcoll | beam.ParDo(BigMemFn()).with_resource_hints(
    min_ram="30GB")

Pour définir des optimisations de ressources sur l'ensemble du pipeline, utilisez l'option de pipeline --resource_hints lorsque vous exécutez votre pipeline. Pour obtenir un exemple, consultez la section Optimisations de ressources du pipeline.

Go

Les optimisations de ressources ne sont pas compatibles avec Go.

Compatibilité avec plusieurs accélérateurs

Dans un pipeline, différentes transformations peuvent avoir des configurations d'accélérateur différentes. Cela inclut les configurations qui nécessitent différents types de machines. Ces configurations d'accélérateur au niveau de la transformation sont prioritaires sur la configuration au niveau du pipeline, le cas échéant.

Adaptation des ressources et fusion

Dans certains cas, les transformations définies avec différentes optimisations de ressources peuvent être exécutées sur des nœuds de calcul situés dans le même pool de nœuds de calcul, dans le cadre du processus d'optimisation de la fusion. Lorsque les transformations sont fusionnées, Dataflow les exécute dans un environnement qui satisfait à l'union des optimisations de ressources définies sur les transformations. Dans certains cas, cela inclut l'ensemble du pipeline.

Lorsqu'il est impossible de fusionner les optimisations de ressources, la fusion n'a pas lieu. Par exemple, les optimisations de ressources pour différents GPU ne peuvent pas être fusionnées. Ces transformations ne sont donc pas fusionnées.

Vous pouvez empêcher la fusion en ajoutant à votre pipeline une opération qui oblige Dataflow à matérialiser une PCollection intermédiaire. Cela est particulièrement utile lorsque vous essayez d'isoler les ressources coûteuses telles que les GPU ou les machines à mémoire élevée des étapes lentes ou coûteuses en calcul qui n'ont pas besoin de ces ressources spéciales. Dans ce cas, il peut être utile de forcer une rupture de fusion entre les étapes lentes liées au processeur et celles qui nécessitent des GPU coûteux ou des machines à mémoire élevée, et de payer le coût de la matérialisation associé à la rupture de fusion. Pour en savoir plus, consultez Empêcher la fusion.

Adaptation des ressources pour le streaming

Pour les jobs de traitement en flux continu, vous pouvez activer l'ajustement approprié en définissant l'option de pipeline --experiments=enable_streaming_rightfitting.

Un dimensionnement approprié peut améliorer les performances de votre pipeline s'il comporte des étapes avec des besoins en ressources différents.

Exemple : Pipeline avec une étape nécessitant beaucoup de CPU et une étape nécessitant un GPU

Un exemple de pipeline pouvant bénéficier de l'adaptation des ressources est celui qui exécute une étape nécessitant beaucoup de processeur, suivie d'une étape nécessitant un GPU. Sans adaptation des ressources, un seul pool de nœuds de calcul GPU devra être configuré pour exécuter toutes les étapes du pipeline, y compris l'étape gourmande en ressources CPU. Cela peut entraîner une sous-utilisation des ressources GPU lorsque le pool de nœuds de calcul exécute l'étape gourmande en ressources de processeur.

Si l'adaptation des ressources est activée et qu'un indice de ressources est appliqué à l'étape nécessitant un GPU, le pipeline créera deux pools distincts. L'étape nécessitant beaucoup de processeur sera exécutée par le pool de nœuds de calcul de processeur, et l'étape nécessitant un GPU sera exécutée par le pool de nœuds de calcul de GPU.

Pour cet exemple de pipeline, le tableau Autoscaling indique que le pool de nœuds de calcul exécutant l'étape gourmande en ressources de processeur, Pool 0, est initialement mis à l'échelle à la hausse à 99 nœuds de calcul, puis à la baisse à 87 nœuds de calcul. Le pool de nœuds de calcul exécutant l'étape nécessitant un GPU, Pool 1, est mis à l'échelle pour atteindre 13 nœuds de calcul :

Tableau montrant l'autoscaling de deux pools.

Le graphique "Utilisation du processeur" montre que les nœuds de calcul des deux pools de nœuds de calcul présentent une utilisation globale élevée du processeur :

Graphique montrant l'utilisation du processeur par les nœuds de calcul de deux pools différents.

Résoudre les problèmes liés à l'adaptation des ressources

Cette section fournit des instructions permettant de résoudre les problèmes courants liés à l'adaptation des ressources.

Configuration non valide

Lorsque vous essayez d'utiliser l'adaptation des ressources, l'erreur suivante se produit :

Workflow failed. Causes: One or more operations had an error: 'operation-OPERATION_ID':
[UNSUPPORTED_OPERATION] 'NUMBER vCpus with NUMBER MiB memory is
an invalid configuration for NUMBER count of 'GPU_TYPE' in family 'MACHINE_TYPE'.'.

Cette erreur se produit lorsque le type de GPU sélectionné n'est pas compatible avec le type de machine sélectionné. Pour résoudre cette erreur, sélectionnez un type de GPU et un type de machine compatibles. Pour en savoir plus sur la compatibilité, consultez la page Plates-formes de GPU.

Vérifier l'adaptation des ressources

Pour vérifier que l'ajustement approprié est activé, consultez les métriques d'autoscaling et assurez-vous que la colonne Worker pool est visible et liste différents pools :

Tableau illustrant l'historique des nœuds de calcul d'un pipeline avec plusieurs pools lorsque l'ajustement parfait est activé.

Performances de l'adaptation des ressources pour le streaming

Les pipelines de streaming avec adaptation des ressources activée ne sont pas toujours plus performants que ceux sans adaptation des ressources activée. Exemple :

  1. Le pipeline utilise plus de nœuds de calcul
  2. La latence du système est plus élevée ou le débit est plus faible
  3. La taille des pools de nœuds de calcul change plus fréquemment ou ne se stabilise pas.

Si vous constatez ce problème pour votre pipeline, vous pouvez désactiver l'ajustement parfait en supprimant l'option de pipeline --experiments=enable_streaming_rightfitting. De plus, les pipelines de streaming avec adaptation des ressources activée à l'aide d'optimisations de ressources d'accélérateur peuvent utiliser plus d'accélérateurs que souhaité. Si vous constatez ce problème pour votre pipeline, vous pouvez configurer un nombre maximal d'accélérateurs utilisés par le pipeline en définissant l'option de pipeline --experiments=max_num_accelerators=NUM.