In diesem Dokument werden die wichtigsten Unterschiede zwischen den auf Google Cloudverfügbaren Trainingsmethoden erläutert. Die Wahl hängt von den Fachkenntnissen Ihres Teams, dem erforderlichen Kontrollniveau und Ihren Infrastrukturpräferenzen ab.
Mit AutoML erstellen und trainieren Sie Modelle mit minimalem technischen Aufwand. Sie können mit AutoML schnell Prototypen von Modellen erstellen und neue Datasets untersuchen, bevor Sie in die Entwicklung investieren. Sie können damit beispielsweise ermitteln, welche Features für ein bestimmtes Dataset am besten geeignet sind.
Mit benutzerdefiniertem Training können Sie eine Trainingsanwendung erstellen, die für Ihr Ziel optimiert ist. Sie haben die volle Kontrolle über die Funktionalität der Trainingsanwendung, von Jobs mit einem einzelnen Knoten bis hin zu massivem, verteiltem Training mit mehreren Knoten. Sie können beliebige Ziele festlegen, beliebige Algorithmen verwenden, eigene Verlustfunktionen oder -messwerte entwickeln oder andere Anpassungen vornehmen.
Serverloses Training in Vertex AI: Bei diesem serverlosen Ansatz stellen Sie Ihren Trainingsjob bereit und Google Cloud stellt die Rechenressourcen für Sie bereit, verwaltet und gibt sie wieder frei. Sie ist ideal für Experimente und für Jobs, bei denen keine garantierte Kapazität erforderlich ist.
Vertex AI-Trainingscluster sind eine Funktion für benutzerdefiniertes Training, die für umfangreiche, leistungsstarke Trainingsjobs entwickelt wurde. Damit können Sie einen dedizierten Cluster mit leistungsstarken Rechenressourcen (z. B. A100- oder H100-GPUs) für die ausschließliche Nutzung reservieren. So sind Kapazität und Leistung für unternehmenskritische und lang andauernde Trainingsaufgaben garantiert.
Mit Ray on Vertex AI können Sie das Framework für verteiltes Computing von Ray auf der Google Cloud -Infrastruktur verwenden. Ray on Vertex AI bietet eine verwaltete Umgebung mit konfigurierbaren Rechenressourcen, Integration mit Diensten wie Vertex AI Inference und BigQuery sowie flexible Netzwerkoptionen für die Entwicklung und Ausführung verteilter Arbeitslasten.
Mit BigQuery können Sie Modelle unter Einsatz Ihrer BigQuery-Daten direkt in BigQuery trainieren. Mit SQL-Befehlen können Sie schnell ein Modell erstellen und damit Batchvorhersagen erhalten.
In der folgenden Tabelle finden Sie einen Vergleich der verschiedenen Funktionen und Fachkenntnisse, die für die einzelnen Dienste erforderlich sind.
| AutoML | Serverloses Training | Trainingscluster | Ray in Vertex AI | BigQuery ML | |
|---|---|---|---|---|---|
| Data-Science-Fachwissen erforderlich | Nein | Ja, um die Trainingsanwendung zu entwickeln und die Datenvorbereitung zu übernehmen. | Ja, um die Trainingsanwendung zu entwickeln und die Datenvorbereitung zu übernehmen. | Grundlegende Kenntnisse von ML-Konzepten und Daten-Workflows sind von Vorteil. | Nein |
| Programmierkenntnisse erforderlich | Nein, AutoML ist codelos. | Ja, um die Trainingsanwendung zu entwickeln. | Ja, um die Trainingsanwendung zu entwickeln. | Ja. | Ja. |
| Zeit zum Trainieren des Modells | Weniger. Es ist weniger Datenvorbereitung erforderlich und es ist keine Entwicklung erforderlich. | Höher. Erfordert die Entwicklung von Code und die Bereitstellung von On-Demand-Ressourcen für jeden Job. | Höher. Hier ist Codeentwicklung erforderlich, aber der Jobstart ist schneller, da Ressourcen bereits reserviert sind. So werden Warteschlangen und Bereitstellungszeiten vermieden. | Die Trainingszeit hängt von der Codelogik (Datenvorbereitung und Training) und der Zeit für die Bereitstellung von Ressourcen ab. | Weniger. Die Modellentwicklung ist schnell, da BigQuery ML die BigQuery-Computational-Engine für Training, Bewertung und Inferenz nutzt. |
| Grenzwerte für Ziele für maschinelles Lernen | Ja. Sie müssen eines der vordefinierten AutoML-Ziele festlegen. | Nein | Nein | Nein | Ja |
| Kann die Modellleistung manuell mit Hyperparameter-Abstimmung optimieren | Nein. AutoML führt Schritte einer automatischen Abstimmung aus, aber Sie können die Werte nicht ändern. | Ja. Sie können das Modell während jedes Trainingslaufs optimieren, um zu experimentieren und Vergleiche anzustellen. | Ja. Sie können das Modell während jedes Trainingslaufs optimieren, um zu experimentieren und Vergleiche anzustellen. | Ja. Sie stellen den benutzerdefinierten Trainingscode bereit und haben so die volle Kontrolle über die Hyperparameterwerte. | Ja. BigQuery ML unterstützt die Hyperparameter-Abstimmung beim Trainieren von Modellen. |
| Kann Aspekte der Trainingsumgebung steuern | Begrenzt. Sie können das Budget für Trainingsstunden angeben und das vorzeitige Beenden aktivieren. | Ja. Sie geben den Compute Engine-Maschinentyp, die Laufwerksgröße und das Container-Image für jeden Job an. | Ja. Sie haben maximale Kontrolle und reservieren bestimmte Hochleistungsmaschinentypen (z.B. H100s), Festplattenkonfigurationen und Netzwerkeinstellungen für Ihre exklusive Nutzung, die Kapazität garantieren. | Ja. Sie haben umfassende Kontrolle, einschließlich benutzerdefinierter Docker-Images, Maschinentypen für Head- und Worker-Knoten sowie Anzahl und Typ der Beschleuniger (GPUs). | Nein |
| Limits bei der Datengröße | Ja. Die Beschränkungen für die Datengröße variieren je nach Dataset-Typ. | Nein | Nein | Nein. Für BigQuery-Lesevorgänge gilt jedoch eine maximale Größe der Abfrageantwort von 10 GB. | Ja. In BigQuery ML werden geeignete Kontingente pro Projekt festgelegt. Weitere Informationen finden Sie unter Kontingente und Limits. |
Nächste Schritte
- Einstiegsanleitung für die ersten Schritte mit Vertex AI Training auswählen.
- Lesen Sie weitere Informationen darüber, wie Sie ein AutoML-Modell trainieren.
- Informationen zu serverlosem Vertex AI-Training
- Weitere Informationen zu Vertex AI-Trainingsclustern
- Weitere Informationen zu Ray in Vertex AI