Questa pagina fornisce una panoramica del flusso di lavoro per l'addestramento e l'utilizzo dei tuoi modelli di machine learning (ML) su Vertex AI. Vertex AI offre una gamma di metodi di addestramento progettati per soddisfare le tue esigenze, da quelli completamente automatizzati a quelli completamente personalizzati.
- AutoML: crea modelli di alta qualità con il minimo sforzo tecnico sfruttando le funzionalità di ML automatizzato di Google.
- Addestramento serverless di Vertex AI: esegui il codice di addestramento personalizzato in un ambiente completamente gestito e on demand senza preoccuparti dell'infrastruttura.
- Cluster di addestramento di Vertex AI: esegui job di addestramento su larga scala e ad alte prestazioni su un cluster dedicato di acceleratori riservato al tuo uso esclusivo.
- Ray on Vertex AI: scala le applicazioni Python e i carichi di lavoro ML utilizzando il framework Ray open source su un servizio gestito.
Per assistenza nella scelta del metodo da utilizzare, consulta Scegliere un metodo di addestramento.
AutoML
AutoML su Vertex AI ti consente di creare un modello ML senza codice basato sui dati di addestramento che fornisci. AutoML può automatizzare attività come la preparazione dei dati, la selezione dei modelli, l'ottimizzazione degli iperparametri e il deployment per vari tipi di dati e attività di previsione, il che può rendere il ML più accessibile a una vasta gamma di utenti.
Tipi di modelli che puoi creare utilizzando AutoML
I tipi di modelli che puoi creare dipendono dal tipo di dati a tua disposizione. Gemini Enterprise Agent Platform offre soluzioni AutoML per i seguenti tipi di dati e obiettivi dei modelli:
| Tipo di dati | Obiettivi supportati |
|---|---|
| Dati dell'immagine | Classificazione, rilevamento di oggetti. |
| Dati tabulari | Classificazione/regressione, previsione. |
Per saperne di più su AutoML, consulta la panoramica dell'addestramento AutoML.
Eseguire il codice di addestramento personalizzato su Vertex AI
Se AutoML non soddisfa le tue esigenze, puoi fornire il tuo codice di addestramento ed eseguirlo sull'infrastruttura gestita di Vertex AI. In questo modo hai il controllo completo e la flessibilità sull'architettura e sulla logica di addestramento del modello, consentendoti di utilizzare qualsiasi framework ML tu scelga.
Vertex AI offre due modalità principali per l'esecuzione del codice di addestramento personalizzato: un ambiente serverless on demand o un cluster dedicato e riservato.
Addestramento serverless di Vertex AI
L'addestramento serverless è un servizio completamente gestito che ti consente di eseguire l'applicazione di addestramento personalizzato senza eseguire il provisioning o la gestione di alcuna infrastruttura.
Puoi pacchettizzare il codice in un container, definire le specifiche della macchina (incluse CPU e GPU) e inviarlo come CustomJob.
Vertex AI si occupa del resto:
- Provisioning delle risorse di computing per la durata del job.
- Esecuzione del codice di addestramento.
- Eliminazione delle risorse al termine del job.
Questo modello on demand con pagamento in base all'utilizzo è ideale per la sperimentazione, la prototipazione rapida e per i job di produzione che non richiedono una capacità garantita e istantanea.
Per saperne di più, consulta Creare un job personalizzato di addestramento serverless
Cluster di addestramento di Vertex AI
Per l'addestramento su larga scala, ad alte prestazioni e mission-critical, puoi prenotare un cluster dedicato di acceleratori. In questo modo viene garantita la capacità ed eliminate le code, assicurando che i job inizino immediatamente.
Sebbene tu abbia l'uso esclusivo di queste risorse, Vertex AI gestisce comunque il sovraccarico operativo della gestione del cluster, inclusa la manutenzione hardware e l'applicazione di patch al sistema operativo. Questo approccio "serverful gestito" ti offre la potenza di un cluster dedicato senza la complessità di gestione.
Ray on Vertex AI
Ray on Vertex AI è un servizio che ti consente di utilizzare il framework Ray open source per scalare le applicazioni AI e Python direttamente all'interno della piattaforma Vertex AI. Ray è progettato per fornire l'infrastruttura per il calcolo distribuito e l'elaborazione parallela per il flusso di lavoro ML.
Ray on Vertex AI fornisce un ambiente gestito per l'esecuzione di applicazioni distribuite utilizzando il framework Ray, offrendo scalabilità e integrazione con Google Cloud i servizi.
Per saperne di più su Ray on Vertex AI, consulta la panoramica di Ray on Vertex AI.