Cette page explique l'intégration de TensorFlow à Gemini Enterprise Agent Platform et fournit des ressources expliquant comment utiliser TensorFlow sur Gemini Enterprise Agent Platform. L'intégration de TensorFlow à Gemini Enterprise Agent Platform vous permet d'entraîner, de déployer et d'orchestrer plus facilement des modèles TensorFlow en production.
Exécuter du code dans des notebooks
Agent Platform propose deux options pour exécuter votre code dans les notebooks : Colab Enterprise et Vertex AI Workbench. Pour en savoir plus sur ces options, consultez la section Choisir une solution de notebook.
Conteneurs prédéfinis pour l'entraînement
Gemini Enterprise Agent Platform fournit des images de conteneurs Docker prédéfinies pour l'entraînement de modèle. Ces conteneurs sont organisés par frameworks de machine learning et versions de framework. Ils incluent des dépendances communes que vous souhaiterez peut-être utiliser dans votre code d'entraînement.
Pour savoir quelles versions de TensorFlow disposent de conteneurs d'entraînement prédéfinis et comment entraîner des modèles avec un conteneur d'entraînement prédéfini, consultez la section Conteneurs prédéfinis pour l' entraînement personnalisé.
Entraînement distribué
Vous pouvez exécuter un entraînement distribué de modèles TensorFlow sur Gemini Enterprise Agent Platform. Pour un entraînement sur plusieurs nœuds de calcul, vous pouvez utiliser Reduction Server afin d'optimiser davantage les performances pour les opérations collectives de réduction globale (all-reduce). Pour en savoir plus sur l'entraînement distribué sur Gemini Enterprise Agent Platform, consultez la page Entraînement distribué.
Conteneurs prédéfinis pour l'inférence
Semblable aux conteneurs prédéfinis pour l'entraînement, Gemini Enterprise Agent Platform fournit des images de conteneurs prédéfinis pour diffuser les inférences et les explications des modèles TensorFlow que vous avez créés dans ou en dehors de Gemini Enterprise Agent Platform. Ces images fournissent des serveurs d'inférence HTTP que vous pouvez utiliser pour diffuser des inférences avec une configuration minimale.
Pour savoir quelles versions de TensorFlow disposent de conteneurs d'entraînement prédéfinis et comment entraîner des modèles avec un conteneur d'entraînement prédéfini, consultez la section Conteneurs prédéfinis pour l' entraînement personnalisé.
Environnement d'exécution TensorFlow optimisé
L'environnement d'exécution TensorFlow optimisé utilise les optimisations de modèles et les nouvelles technologies propriétaires Google pour améliorer la vitesse et réduire le coût des inférences par rapport aux conteneurs d'inférence prédéfinis standard de Gemini Enterprise Agent Platform's pour TensorFlow.
Intégration de TensorFlow Cloud Profiler
Entraînez des modèles à moindre coût et plus rapidement en surveillant et en optimisant les performances de votre job d'entraînement à l'aide de l'intégration de TensorFlow Cloud Profiler à Gemini Enterprise Agent Platform. TensorFlow Cloud Profiler vous aide à comprendre la consommation de ressources des opérations d'entraînement afin d'identifier et d'éliminer les goulots d'étranglement.
Pour en savoir plus sur Agent Platform TensorFlow Cloud Profiler, consultez la page Profiler les performances d'entraînement des modèles à l'aide de Profiler.
Ressources pour l'utilisation de TensorFlow sur Gemini Enterprise Agent Platform
Pour en savoir plus et commencer à utiliser TensorFlow dans Gemini Enterprise Agent Platform, consultez les ressources suivantes.
Prototype en production: série de vidéos fournissant un exemple de bout en bout de développement et de déploiement d'un modèle TensorFlow personnalisé sur Gemini Enterprise Agent Platform.
Optimiser les performances d'entraînement avec Reduction Server sur Gemini Enterprise Agent Platform: article de blog sur l'optimisation de l'entraînement distribué sur Gemini Enterprise Agent Platform à l'aide de Reduction Server.
Optimiser les performances d'entraînement avec TensorFlow Cloud Profiler sur Gemini Enterprise Agent Platform: article de blog qui vous montre comment identifier les goulots d'étranglement dans votre job d'entraînement à l'aide de TensorFlow Cloud Profiler de Gemini Enterprise Agent Platform.
Prédiction par lot de modèles personnalisés avec filtrage des caractéristiques: tutoriel de notebook expliquant comment utiliser le SDK Agent Platform pour Python afin d'entraîner un modèle de classification tabulaire personnalisé et d'effectuer une inférence par lot avec filtrage des caractéristiques.
Co-héberger des modèles TensorFlow sur la même VM pour les prédictions: atelier de programmation qui vous montre comment utiliser la fonctionnalité de modèle de co-hébergement dans Gemini Enterprise Agent Platform pour héberger plusieurs modèles sur la même VM pour les inférences en ligne.