Choisir une méthode d'entraînement

Ce document explique les principales différences entre les méthodes d'entraînement disponibles sur Google Cloud. Votre choix dépend de l'expertise de votre équipe, du niveau de contrôle dont vous avez besoin et de vos préférences en matière d'infrastructure.

  • AutoML vous permet de créer et d'entraîner un modèle avec un minimum d'efforts techniques. Vous pouvez utiliser AutoML pour créer rapidement des prototypes de modèles et explorer de nouveaux ensembles de données avant d'investir dans le développement. Par exemple, vous pouvez l'utiliser pour connaître les fonctionnalités les plus adaptées à un ensemble de données spécifique.

  • L'entraînement personnalisé vous permet de créer une application d'entraînement optimisée pour le résultat ciblé. Vous contrôlez entièrement les fonctionnalités de l'application d'entraînement, des tâches à nœud unique à l'entraînement distribué à plusieurs nœuds. En d'autres termes, vous pouvez cibler n'importe quel objectif, utiliser n'importe quel algorithme, développer vos propres fonctions ou métriques de perte, ou effectuer toute autre personnalisation.

    • Entraînement sans serveur Vertex AI : il s'agit d'une approche sans serveur dans laquelle vous envoyez votre job d'entraînement, et Google Cloud provisionne, gère et libère les ressources de calcul pour vous. Il est idéal pour les tests et les jobs pour lesquels vous n'avez pas besoin d'une capacité garantie.

    • Les clusters d'entraînement Vertex AI sont une fonctionnalité d'entraînement personnalisé conçue pour les tâches d'entraînement à grande échelle et hautes performances. Il vous permet de réserver un cluster dédié de ressources de calcul puissantes (comme les GPU A100 ou H100) pour votre usage exclusif, ce qui garantit la capacité et les performances pour les tâches d'entraînement critiques et de longue durée.

  • Avec Ray sur Vertex AI, vous pouvez utiliser le framework de calcul distribué de Ray sur l'infrastructure Google Cloud . Ray sur Vertex AI fournit un environnement géré avec des ressources de calcul configurables, une intégration avec des services tels que Vertex AI Inference et BigQuery, ainsi que des options réseau flexibles pour développer et exécuter des charges de travail distribuées.

  • Avec BigQuery, vous pouvez entraîner des modèles à l'aide de vos données BigQuery directement dans BigQuery. Les commandes SQL vous permettent de créer rapidement un modèle et de l'utiliser pour obtenir des inférences par lot.

Pour comparer les différentes fonctionnalités ainsi que le niveau d'expertise pour chaque service, consultez le tableau suivant.

AutoML Entraînement sans serveur Clusters d'entraînement Ray sur Vertex AI BigQuery ML
Connaissance de la data science requise Non Oui, pour développer l'application d'entraînement et gérer la préparation des données. Oui, pour développer l'application d'entraînement et gérer la préparation des données. Il est utile d'avoir des connaissances de base sur les concepts de ML et les workflows de données. Non
Capacité de programmation nécessaire Non, AutoML s'utilise sans code. Oui, pour développer l'application d'entraînement. Oui, pour développer l'application d'entraînement. Oui. Oui.
Temps d'entraînement du modèle Durée plus courte. La préparation des données est réduite. Aucun développement n'est nécessaire. Durée plus longue. Implique le temps de développement du code et de provisionnement des ressources à la demande pour chaque job. Durée plus longue. Implique le développement de code, mais le démarrage du job est plus rapide, car les ressources sont déjà réservées, ce qui élimine les files d'attente et le temps de provisionnement. Le temps d'entraînement dépend de la logique du code (préparation et entraînement des données) et du temps nécessaire pour provisionner les ressources. Durée plus courte. Le développement de modèles est rapide, car BigQuery ML exploite le moteur de calcul BigQuery pour l'entraînement, l'évaluation et l'inférence.
Limites sur les objectifs de machine learning Oui. Vous devez cibler l'un des objectifs prédéfinis d'AutoML. Non Non Non Oui
Optimiser manuellement les performances du modèle avec les réglages d'hyperparamètres Non. AutoML effectue certains réglages automatiques, mais vous ne pouvez pas modifier les valeurs. Oui. Vous pouvez ajuster le modèle lors de chaque entraînement pour expérimenter et comparer. Oui. Vous pouvez ajuster le modèle lors de chaque entraînement pour expérimenter et comparer. Oui. Vous fournissez le code d'entraînement personnalisé, ce qui vous permet de contrôler entièrement les valeurs des hyperparamètres. Oui. BigQuery ML permet de régler les hyperparamètres lors de l'entraînement de modèles.
Contrôler les aspects de l'environnement d'entraînement Limitée. Vous pouvez spécifier le budget pour les heures d'entraînement et activer l'arrêt prématuré. Oui. Vous spécifiez le type de machine Compute Engine, la taille du disque et l'image de conteneur pour chaque job. Oui. Vous disposez d'un contrôle maximal en réservant des types de machines spécifiques hautes performances (par exemple, H100), les configurations de disque et les paramètres réseau pour votre usage exclusif, ce qui garantit la capacité. Oui. Vous disposez d'un contrôle important, y compris sur les images Docker personnalisées, les types de machines pour les nœuds principaux et de calcul, ainsi que sur le nombre et le type d'accélérateurs (GPU). Non
Limites de taille des données Oui. Les limites de taille des données varient en fonction du type d'ensemble de données. Non Non Non. Toutefois, la taille maximale des réponses aux requêtes est de 10 Go pour les lectures BigQuery. Oui. BigQuery ML applique des quotas appropriés par projet. Pour en savoir plus, consultez la page Quotas et limites.

Étapes suivantes