Vertex AI ist eine einheitliche, offene Plattform zum Erstellen, Bereitstellen und Skalieren von Modellen für generative KI und maschinelles Lernen (ML) sowie von KI-Anwendungen. Sie bietet Zugriff auf Model Garden, einen kuratierten Katalog mit über 200 Modellen, darunter die Foundation Models von Google (z. B. Gemini) und eine umfassende Auswahl an Partner- und Open-Source-Modellen, sowie die zugrunde liegende TPU-/GPU-Infrastruktur. Vertex AI unterstützt sowohl moderne GenAI-Workflows als auch KI-Inferenz-Workflows für MLOps. Es bietet End-to-End-MLOps-Tools und Kontrollfunktionen auf Unternehmensniveau für Governance, Sicherheit und Compliance.
Wichtige Funktionen von Vertex AI
Vertex AI umfasst Tools und Dienste, die generative KI sowie KI-Inferenz- und Machine-Learning-Workflows unterstützen.
Funktionen für generative KI
Vertex AI vereint ein umfassendes Toolset mit den fortschrittlichen Foundation Model-Tools von Google, mit denen Sie produktionsreife generative KI-Agents und -Anwendungen erstellen können:
Prompting: Beginnen Sie mit dem Prompt-Design in Vertex AI Studio. Vertex AI Studio umfasst Tools für das Prompt-Design und die Modellverwaltung, mit denen Sie generative KI-Anwendungen prototypisieren, erstellen und bereitstellen können.
Modelle: Model Garden von Vertex AI ist ein zentraler Hub mit über 200 unternehmensgerechten Modellen von Google, führenden Drittanbieterpartnern (z. B. Claude von Anthropic) und beliebten Open-Source-Optionen (z. B. Llama).
Diese Auswahl an Modellen umfasst:
Basismodelle für generative KI von Google:
- Gemini: Multimodale Funktionen für Text, Bilder, Videos und Audio sowie Denkfunktionen für Modelle wie Gemini 3 Flash und Gemini 3 Pro (mit Nano Banana).
- Imagen in Vertex AI: Bilder generieren und bearbeiten.
- Veo in Vertex AI: Videos aus Text und Bildern generieren.
Partner- und Open-Source-Modelle: Sie haben Zugriff auf eine kuratierte Auswahl führender Modelle wie Claude von Anthropic, Mistral AI-Modelle und Llama mit einem hervorragenden Preis-Leistungs-Verhältnis. Diese Modelle sind als vollständig verwaltete Model-as-a-Service (MaaS)-APIs verfügbar.
Modellanpassung: Passen Sie Modelle an Ihr Unternehmen an, um einzigartige KI-Assets zu erstellen. Das reicht von der Fundierung mit Ihren Unternehmensdaten oder der Google Suche, um Halluzinationen zu reduzieren, bis hin zur Verwendung von Vertex AI Training für die überwachte Feinabstimmung (Supervised Fine-Tuning, SFT) oder die parameter-effiziente Feinabstimmung (Parameter-Efficient Fine-Tuning, PEFT) von Modellen wie Gemini. Weitere Informationen zur Modellanpassung finden Sie unter Einführung in die Abstimmung.
Bewertungen für generative KI: Mit den Vertex AI GenAI Evaluation-Funktionen können Sie die Leistung von Modellen und Agenten objektiv bewerten und vergleichen. Sorgen Sie für Sicherheit und Compliance, indem Sie Laufzeitschutzfunktionen wie Model Armor einsetzen, um proaktiv vor neu auftretenden Bedrohungen wie Prompt Injection und Daten-Exfiltration zu schützen.
Agent Builder: Vertex AI Agent Builder ist ein Full-Stack-System für die Transformation von Agenten, mit dem Sie KI-Agents erstellen, verwalten und bereitstellen können. Mit dem Open-Source-Agent Development Kit (ADK) können Sie KI-Agents erstellen und orchestrieren und sie dann in der verwalteten, serverlosen Vertex AI Agent Engine für die Verwendung im großen Maßstab in der Produktion bereitstellen. Jedem Agent wird eine Agent-Identität (Identity and Access Management-Prinzipal) für die Sicherheit und einen klaren Audit-Trail zugewiesen.
Auf externe Informationen zugreifen: Verbessern Sie die Antworten von Modellen, indem Sie mit Grounding eine Verbindung zu zuverlässigen Quellen herstellen, mit Funktionsaufrufen mit externen APIs interagieren und mit RAG Informationen aus Wissensdatenbanken abrufen.
Verantwortungsbewusste KI und Sicherheit: Verwenden Sie integrierte Sicherheitsfunktionen, um schädliche Inhalte zu blockieren und eine verantwortungsbewusste Nutzung von KI zu gewährleisten.
Weitere Informationen zu generativer KI in Vertex AI finden Sie in der Dokumentation zu generativer KI in Vertex AI.
KI-Inferenzfunktionen
Vertex AI bietet Tools und Dienste für jede Phase des ML-Workflows:
Datenvorbereitung: Daten erheben, bereinigen und transformieren
- Mit Vertex AI Workbench-Notebooks explorative Datenanalyse (EDA) durchführen
- Integration in Cloud Storage und BigQuery für den Datenzugriff
- Verwenden Sie Dataproc Serverless Spark für die Verarbeitung großer Datenmengen.
Modelltraining: Trainieren Sie Ihr ML-Modell.
- Wählen Sie zwischen AutoML für das Training ohne Code oder Benutzerdefiniertes Training für die vollständige Kontrolle.
- Trainingsläufe mit Vertex AI Experiments verwalten und vergleichen.
- Registrieren Sie trainierte Modelle in der Vertex AI Model Registry.
- Vertex AI Training bietet sowohl serverloses Training als auch Trainingscluster.
- Mit dem serverlosen Training von Vertex AI können Sie Ihren benutzerdefinierten Trainingscode bei Bedarf in einer vollständig verwalteten Umgebung ausführen. Weitere Informationen finden Sie in der [Übersicht über serverloses Training in Vertex AI][serverless].
- Verwenden Sie Vertex AI-Trainingscluster für große Jobs, die garantierte Kapazität in dedizierten, reservierten Beschleunigerclustern benötigen. Weitere Informationen finden Sie unter Vertex AI-Trainingscluster – Übersicht.
- Mit Ray on Vertex AI können Sie Python- und ML-Arbeitslasten mit dem Open-Source-Framework Ray in einem verwalteten, interaktiven Cluster skalieren. Weitere Informationen finden Sie in der Übersicht zu Ray on Vertex AI.
- Mit Vertex AI Vizier können Sie Modellhyperparameter in komplexen ML-Modellen anpassen.
Modellbewertung und -iteration: Bewerten und verbessern Sie die Modellleistung.
- Verwenden Sie Modellbewertungsmesswerte, um Modelle zu vergleichen.
- Bewertungen in Vertex AI Pipelines-Workflows einbinden
Modellbereitstellung: Modell bereitstellen und Inferenz daraus abrufen.
- Stellen Sie für Onlineinferenzen mit vordefinierten oder benutzerdefinierten Containern bereit.
- Batch-Inferenz für große Datasets ausführen
- Verwenden Sie die optimierte TensorFlow-Laufzeit für effizientes TensorFlow Serving.
- Vertex Explainable AI verwenden, um Modellinferenzen zu verstehen.
- Features aus dem Vertex AI Feature Store bereitstellen
- Modelle bereitstellen, die mit BigQuery ML trainiert wurden
Modellmonitoring: Verfolgen Sie die Leistung bereitgestellter Modelle im Zeitverlauf.
- Mit Vertex AI Model Monitoring können Sie Abweichungen zwischen Training und Bereitstellung sowie Inferencedrift erkennen.
MLOps-Tools
ML-Projekte automatisieren, verwalten und überwachen:
- Vertex AI Pipelines:Orchestrieren und automatisieren Sie ML-Workflows als wiederverwendbare Pipelines.
- Vertex AI Model Registry:Verwalten Sie den Lebenszyklus Ihrer ML-Modelle, einschließlich Versionsverwaltung und Bereitstellung.
- Serverloses Training in Vertex AI: Führen Sie Ihren benutzerdefinierten Trainingscode bei Bedarf in einer vollständig verwalteten Umgebung aus.
- Vertex AI Model Monitoring:Stellen Sie sicher, dass die Leistung bereitgestellter Modelle durch die Überwachung auf Datenabweichungen und ‑Drift aufrechterhalten wird.
- Vertex AI Experiments:Verfolgen und analysieren Sie verschiedene Modellarchitekturen und ‑hyperparameter.
- Vertex AI Feature Store: Mit Vertex AI Feature Store können Sie Feature-Daten für das Trainieren von Modellen oder für Echtzeitvorhersagen verwalten und bereitstellen.
- Vertex ML Metadata:Metadaten für ML-Artefakte verfolgen und verwalten.
- Vertex AI-Trainingscluster: Trainieren Sie umfangreiche Jobs, für die garantierte Kapazität in einem dedizierten, reservierten Cluster von Beschleunigern erforderlich ist.
- Ray on Vertex AI: Skalieren Sie Python- und ML-Arbeitslasten mit dem Open-Source-Framework Ray in einem verwalteten, interaktiven Cluster.
Nächste Schritte
- Weitere Informationen zu generativer KI in Vertex AI
- Informationen zu den MLOps-Features von Vertex AI
- Schnittstellen, mit denen Sie mit Vertex AI interagieren können