Auf dieser Seite wird die TensorFlow-Integration der Gemini Enterprise Agent Platform erläutert. Außerdem erfahren Sie, wie Sie TensorFlow auf der Gemini Enterprise Agent Platform verwenden. Die TensorFlow-Integration der Gemini Enterprise Agent Platform erleichtert das Trainieren, Bereitstellen und Orchestrieren von TensorFlow-Modellen in der Produktion.
Code in Notebooks ausführen
Die Agent Platform bietet zwei Optionen zum Ausführen Ihres Codes in Notebooks: Colab Enterprise und Vertex AI Workbench. Weitere Informationen zu diesen Optionen finden Sie unter Notebooklösung auswählen.
Vordefinierte Container für das Training
Die Gemini Enterprise Agent Platform bietet vordefinierte Docker-Container-Images für das Modelltraining. Diese Container sind nach Frameworks für maschinelles Lernen und Framework-Versionen organisiert und enthalten allgemeine Abhängigkeiten, die Sie in Ihrem Trainingscode verwenden können.
Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.
Verteiltes Training
Sie können das verteilte Training von TensorFlow-Modellen auf der Gemini Enterprise Agent Platform verwenden. Beim Multi-Worker-Training können Sie mit dem Reduzierungsserver die Leistung für kollektive Vorgänge noch weiter optimieren. Weitere Informationen zum verteilten Training auf der Gemini Enterprise Agent Platform finden Sie unter Verteiltes Training.
Vordefinierte Container für Inferenz
Ähnlich wie vordefinierte Container für das Training bietet die Gemini Enterprise Agent Platform vordefinierte Container-Images zum Bereitstellen von Inferenz und Erläuterungen aus TensorFlow-Modellen, die Sie entweder innerhalb oder außerhalb der Gemini Enterprise Agent Platform erstellt haben. Diese Images stellen HTTP-Inferenzserver bereit, mit denen Sie Inferenz mit minimaler Konfiguration bereitstellen können.
Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.
Optimierte TensorFlow-Laufzeit
Die optimierte TensorFlow Laufzeit verwendet Modelloptimierungen und neue proprietäre Google-Technologien. Dadurch werden die Geschwindigkeit verbessert und die Kosten für Inferenz im Vergleich zu den vorkonfigurierten Standard Inferenzcontainern der Gemini Enterprise Agent Platform für TensorFlow gesenkt.
TensorFlow Cloud Profiler-Integration
Mit der TensorFlow Cloud Profiler-Integration der Gemini Enterprise Agent Platform lassen sich Modelle durch Monitoring und Optimierung der Leistung Ihres Trainingsjobs kostengünstiger und schneller trainieren. TensorFlow Cloud Profiler hilft Ihnen, den Ressourcenverbrauch von Trainingsvorgängen zu verstehen, damit Sie Leistungsengpässe identifizieren und beseitigen können.
Weitere Informationen zum TensorFlow Cloud Profiler der Agent Platform finden Sie unter Leistung des Modelltrainings mit Profiler bestimmen.
Ressourcen für die Verwendung von TensorFlow auf der Gemini Enterprise Agent Platform
Weitere Informationen, darunter zur Verwendung von TensorFlow auf der Gemini Enterprise Agent Platform, finden Sie in folgenden Ressourcen.
Vom Prototyp zur Produktion: Eine Videoreihe mit einem End-to-End-Beispiel zur Entwicklung und Bereitstellung eines benutzerdefinierten TensorFlow-Modells auf der Gemini Enterprise Agent Platform.
Trainingsleistung mit Reduction Server auf der Gemini Enterprise Agent Platform: Ein Blogpost zur Optimierung des verteilten Trainings auf der Gemini Enterprise Agent Platform mit Reduction Server.
Optimierung der Trainingsleistung mit TensorFlow Cloud Profiler auf der Gemini Enterprise Agent Platform: In einem Blogpost erfahren Sie, wie Sie Leistungsengpässe in Ihrem Trainingsjob mithilfe von TensorFlow Cloud Profiler auf der Gemini Enterprise Agent Platform ermitteln.
Batch-Vorhersage für benutzerdefiniertes Modell mit Feature-Filterung: Eine Notebook-Anleitung, die Ihnen zeigt, wie Sie das Agent Platform SDK für Python verwenden, um ein benutzerdefiniertes tabellarisches Klassifizierungsmodell zu trainieren und Batch-Vorhersagen mit Feature-Filterung durchzuführen.
Agent Platform Pipelines: Benutzerdefiniertes Training mit vordefinierten Google Cloud Pipeline-Komponenten: Eine Notebook-Anleitung, die Ihnen zeigt, wie Sie Gemini Enterprise Agent Platform Pipelines mit vordefinierten Google Cloud Pipeline-Komponenten für benutzerdefiniertes Training verwenden.
TensorFlow-Modelle auf derselben VM für Vorhersagen hosten: Ein Codelab, das zeigt, wie Sie die Funktion für das gemeinsame Hosting von Modellen auf der Gemini Enterprise Agent Platform verwenden, um mehrere Modelle auf derselben VM für Online-Inferenzen zu hosten.