Ce document explique les principales différences entre les méthodes d'entraînement disponibles sur Google Cloud. Votre choix dépend de l'expertise de votre équipe, du niveau de contrôle dont vous avez besoin et de vos préférences en matière d'infrastructure.
AutoML vous permet de créer et d'entraîner un modèle avec un minimum d'efforts techniques. Vous pouvez utiliser AutoML pour créer rapidement des prototypes de modèles et explorer de nouveaux ensembles de données avant d'investir dans le développement. Par exemple, vous pouvez l'utiliser pour connaître les fonctionnalités les plus adaptées à un ensemble de données spécifique.
L'entraînement personnalisé vous permet de créer une application d'entraînement optimisée pour le résultat ciblé. Vous contrôlez entièrement les fonctionnalités de l'application d'entraînement, des tâches à nœud unique à l'entraînement distribué à plusieurs nœuds. En d'autres termes, vous pouvez cibler n'importe quel objectif, utiliser n'importe quel algorithme, développer vos propres fonctions ou métriques de perte, ou effectuer toute autre personnalisation.
Entraînement sans serveur Vertex AI : il s'agit d'une approche sans serveur dans laquelle vous envoyez votre job d'entraînement, et Google Cloud provisionne, gère et libère les ressources de calcul pour vous. Il est idéal pour les tests et les jobs pour lesquels vous n'avez pas besoin d'une capacité garantie.
Les clusters d'entraînement Vertex AI sont une fonctionnalité d'entraînement personnalisé conçue pour les tâches d'entraînement à grande échelle et hautes performances. Il vous permet de réserver un cluster dédié de ressources de calcul puissantes (comme les GPU A100 ou H100) pour votre usage exclusif, ce qui garantit la capacité et les performances pour les tâches d'entraînement critiques et de longue durée.
Avec Ray sur Vertex AI, vous pouvez utiliser le framework de calcul distribué de Ray sur l'infrastructure Google Cloud . Ray sur Vertex AI fournit un environnement géré avec des ressources de calcul configurables, une intégration avec des services tels que Vertex AI Inference et BigQuery, ainsi que des options réseau flexibles pour développer et exécuter des charges de travail distribuées.
Avec BigQuery, vous pouvez entraîner des modèles à l'aide de vos données BigQuery directement dans BigQuery. Les commandes SQL vous permettent de créer rapidement un modèle et de l'utiliser pour obtenir des inférences par lot.
Pour comparer les différentes fonctionnalités ainsi que le niveau d'expertise pour chaque service, consultez le tableau suivant.
| AutoML | Entraînement sans serveur | Clusters d'entraînement | Ray sur Vertex AI | BigQuery ML | |
|---|---|---|---|---|---|
| Connaissance de la data science requise | Non | Oui, pour développer l'application d'entraînement et gérer la préparation des données. | Oui, pour développer l'application d'entraînement et gérer la préparation des données. | Il est utile d'avoir des connaissances de base sur les concepts de ML et les workflows de données. | Non |
| Capacité de programmation nécessaire | Non, AutoML s'utilise sans code. | Oui, pour développer l'application d'entraînement. | Oui, pour développer l'application d'entraînement. | Oui. | Oui. |
| Temps d'entraînement du modèle | Durée plus courte. La préparation des données est réduite. Aucun développement n'est nécessaire. | Durée plus longue. Implique le temps de développement du code et de provisionnement des ressources à la demande pour chaque job. | Durée plus longue. Implique le développement de code, mais le démarrage du job est plus rapide, car les ressources sont déjà réservées, ce qui élimine les files d'attente et le temps de provisionnement. | Le temps d'entraînement dépend de la logique du code (préparation et entraînement des données) et du temps nécessaire pour provisionner les ressources. | Durée plus courte. Le développement de modèles est rapide, car BigQuery ML exploite le moteur de calcul BigQuery pour l'entraînement, l'évaluation et l'inférence. |
| Limites sur les objectifs de machine learning | Oui. Vous devez cibler l'un des objectifs prédéfinis d'AutoML. | Non | Non | Non | Oui |
| Optimiser manuellement les performances du modèle avec les réglages d'hyperparamètres | Non. AutoML effectue certains réglages automatiques, mais vous ne pouvez pas modifier les valeurs. | Oui. Vous pouvez ajuster le modèle lors de chaque entraînement pour expérimenter et comparer. | Oui. Vous pouvez ajuster le modèle lors de chaque entraînement pour expérimenter et comparer. | Oui. Vous fournissez le code d'entraînement personnalisé, ce qui vous permet de contrôler entièrement les valeurs des hyperparamètres. | Oui. BigQuery ML permet de régler les hyperparamètres lors de l'entraînement de modèles. |
| Contrôler les aspects de l'environnement d'entraînement | Limitée. Vous pouvez spécifier le budget pour les heures d'entraînement et activer l'arrêt prématuré. | Oui. Vous spécifiez le type de machine Compute Engine, la taille du disque et l'image de conteneur pour chaque job. | Oui. Vous disposez d'un contrôle maximal en réservant des types de machines spécifiques hautes performances (par exemple, H100), les configurations de disque et les paramètres réseau pour votre usage exclusif, ce qui garantit la capacité. | Oui. Vous disposez d'un contrôle important, y compris sur les images Docker personnalisées, les types de machines pour les nœuds principaux et de calcul, ainsi que sur le nombre et le type d'accélérateurs (GPU). | Non |
| Limites de taille des données | Oui. Les limites de taille des données varient en fonction du type d'ensemble de données. | Non | Non | Non. Toutefois, la taille maximale des réponses aux requêtes est de 10 Go pour les lectures BigQuery. | Oui. BigQuery ML applique des quotas appropriés par projet. Pour en savoir plus, consultez la page Quotas et limites. |
Étapes suivantes
- Choisissez un tutoriel d'introduction pour commencer à utiliser l'entraînement de l'IA Vertex.
- En savoir plus sur l'entraînement d'un modèle AutoML.
- En savoir plus sur l'entraînement sans serveur Vertex AI.
- En savoir plus sur les clusters d'entraînement Vertex AI
- En savoir plus sur Ray sur Vertex AI