Eigene Modelle trainieren und verwenden

Auf dieser Seite erhalten Sie einen Überblick über den Workflow zum Trainieren und Verwenden eigener Modelle für maschinelles Lernen (ML) in Vertex AI. Vertex AI bietet eine Reihe von Trainingsmethoden, die auf Ihre Anforderungen zugeschnitten sind – von vollständig automatisiert bis vollständig benutzerdefiniert.

  • AutoML: Mit den automatisierten ML-Funktionen von Google hochwertige Modelle mit minimalem technischen Aufwand erstellen.
  • Serverloses Training in Vertex AI: Führen Sie Ihren benutzerdefinierten Trainingscode in einer vollständig verwalteten On-Demand-Umgebung aus, ohne sich um die Infrastruktur kümmern zu müssen.
  • Vertex AI-Trainingscluster: Führen Sie umfangreiche, leistungsstarke Trainingsjobs in einem dedizierten Cluster von Beschleunigern aus, der ausschließlich für Sie reserviert ist.
  • Ray on Vertex AI: Skalieren Sie Python-Anwendungen und ML-Arbeitslasten mit dem Open-Source-Ray-Framework in einem verwalteten Dienst.

Hilfe bei der Entscheidung, welche dieser Methoden verwendet werden sollte, finden Sie unter Trainingsmethode auswählen.

AutoML

Mit AutoML in Vertex AI können Sie ein codefreies ML-Modell auf Basis der von Ihnen bereitgestellten Trainingsdaten erstellen. Mit AutoML können Aufgaben wie Datenvorbereitung, Modellauswahl, Hyperparameter-Abstimmung und Bereitstellung für verschiedene Datentypen und Vorhersageaufgaben automatisiert werden. So wird ML für eine Vielzahl von Nutzern zugänglicher.

Modelltypen, die Sie mit AutoML erstellen können

Welche Typen Sie erstellen können, hängt vom Typ der Daten ab. Vertex AI bietet AutoML-Lösungen für die folgenden Datentypen und Modellziele:

Datentyp Unterstützte Ziele
Bilddaten Klassifizierung, Objekterkennung
Tabellarische Daten Klassifizierung/Regression, Prognose

Weitere Informationen zu AutoML finden Sie unter AutoML-Training – Übersicht.

Benutzerdefinierten Trainingscode in Vertex AI ausführen

Wenn AutoML nicht Ihren Anforderungen entspricht, können Sie Ihren eigenen Trainingscode bereitstellen und ihn in der verwalteten Infrastruktur von Vertex AI ausführen. So haben Sie die volle Kontrolle und Flexibilität über die Architektur und Trainingslogik Ihres Modells und können jedes beliebige ML-Framework verwenden.

Vertex AI bietet zwei primäre Modi zum Ausführen Ihres benutzerdefinierten Trainingscodes: eine serverlose On-Demand-Umgebung oder einen dedizierten, reservierten Cluster.

Serverloses Vertex AI-Training

Das serverlose Training ist ein vollständig verwalteter Dienst, mit dem Sie Ihre benutzerdefinierte Trainingsanwendung ausführen können, ohne Infrastruktur bereitstellen oder verwalten zu müssen. Sie verpacken Ihren Code in einem Container, definieren Ihre Maschinenspezifikationen (einschließlich CPUs und GPUs) und senden ihn als CustomJob ein.

Vertex AI übernimmt den Rest:

  • Bereitstellung der Rechenressourcen für die Dauer Ihres Jobs.
  • Ausführung Ihres Trainingscodes
  • Löschen der Ressourcen nach Abschluss des Jobs.

Dieses On-Demand-Modell mit nutzungsbasierter Abrechnung eignet sich ideal für Tests, schnelles Prototyping und Produktionsjobs, für die keine garantierte, sofortige Kapazität erforderlich ist.

Weitere Informationen finden Sie unter Benutzerdefinierten serverlosen Trainingsjob erstellen.

Vertex AI-Trainingscluster

Für groß angelegte, leistungsstarke und geschäftskritische Trainings können Sie einen dedizierten Cluster von Beschleunigern reservieren. Dadurch wird die Kapazität sichergestellt und Warteschlangen werden vermieden, sodass Ihre Jobs sofort gestartet werden.

Sie haben zwar die ausschließliche Nutzung dieser Ressourcen, aber Vertex AI übernimmt weiterhin den Betriebsaufwand für die Verwaltung des Clusters, einschließlich der Hardwarewartung und des Betriebssystem-Patchings. Dieser „verwaltete serverlose“ Ansatz bietet Ihnen die Leistung eines dedizierten Clusters ohne die Komplexität der Verwaltung.

Ray in Vertex AI

Ray on Vertex AI ist ein Dienst, mit dem Sie das Open-Source-Ray-Framework zum Skalieren von KI- und Python-Anwendungen direkt in der Vertex AI-Plattform verwenden können. Ray wurde entwickelt, um die Infrastruktur für verteiltes Computing und parallele Verarbeitung für Ihren ML-Workflow bereitzustellen.

Ray on Vertex AI bietet eine verwaltete Umgebung zum Ausführen verteilter Anwendungen mit dem Ray-Framework und bietet Skalierbarkeit und Integration mit Google Cloud -Diensten.

Weitere Informationen zu Ray in Vertex AI finden Sie in der Übersicht zu Ray in Vertex AI.