TensorFlow-Integration

Auf dieser Seite wird die TensorFlow-Integration der Gemini Enterprise Agent Platform erläutert. Außerdem erfahren Sie, wie Sie TensorFlow auf der Gemini Enterprise Agent Platform verwenden. Die TensorFlow-Integration der Gemini Enterprise Agent Platform erleichtert das Trainieren, Bereitstellen und Orchestrieren von TensorFlow-Modellen in der Produktion.

Code in Notebooks ausführen

Die Agent Platform bietet zwei Optionen zum Ausführen Ihres Codes in Notebooks: Colab Enterprise und Vertex AI Workbench. Weitere Informationen zu diesen Optionen finden Sie unter Notebooklösung auswählen.

Vordefinierte Container für das Training

Die Gemini Enterprise Agent Platform bietet vordefinierte Docker-Container-Images für das Modelltraining. Diese Container sind nach Frameworks für maschinelles Lernen und Framework-Versionen organisiert und enthalten allgemeine Abhängigkeiten, die Sie in Ihrem Trainingscode verwenden können.

Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.

Verteiltes Training

Sie können das verteilte Training von TensorFlow-Modellen auf der Gemini Enterprise Agent Platform verwenden. Beim Multi-Worker-Training können Sie mit dem Reduzierungsserver die Leistung für kollektive Vorgänge noch weiter optimieren. Weitere Informationen zum verteilten Training auf der Gemini Enterprise Agent Platform finden Sie unter Verteiltes Training.

Vordefinierte Container für Inferenz

Ähnlich wie vordefinierte Container für das Training bietet die Gemini Enterprise Agent Platform vordefinierte Container-Images zum Bereitstellen von Inferenz und Erläuterungen aus TensorFlow-Modellen, die Sie entweder innerhalb oder außerhalb der Gemini Enterprise Agent Platform erstellt haben. Diese Images stellen HTTP-Inferenzserver bereit, mit denen Sie Inferenz mit minimaler Konfiguration bereitstellen können.

Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.

Optimierte TensorFlow-Laufzeit

Die optimierte TensorFlow Laufzeit verwendet Modelloptimierungen und neue proprietäre Google-Technologien. Dadurch werden die Geschwindigkeit verbessert und die Kosten für Inferenz im Vergleich zu den vorkonfigurierten Standard Inferenzcontainern der Gemini Enterprise Agent Platform für TensorFlow gesenkt.

TensorFlow Cloud Profiler-Integration

Mit der TensorFlow Cloud Profiler-Integration der Gemini Enterprise Agent Platform lassen sich Modelle durch Monitoring und Optimierung der Leistung Ihres Trainingsjobs kostengünstiger und schneller trainieren. TensorFlow Cloud Profiler hilft Ihnen, den Ressourcenverbrauch von Trainingsvorgängen zu verstehen, damit Sie Leistungsengpässe identifizieren und beseitigen können.

Weitere Informationen zum TensorFlow Cloud Profiler der Agent Platform finden Sie unter Leistung des Modelltrainings mit Profiler bestimmen.

Ressourcen für die Verwendung von TensorFlow auf der Gemini Enterprise Agent Platform

Weitere Informationen, darunter zur Verwendung von TensorFlow auf der Gemini Enterprise Agent Platform, finden Sie in folgenden Ressourcen.