Addestrare e utilizzare i tuoi modelli

Questa pagina fornisce una panoramica del flusso di lavoro per l'addestramento e l'utilizzo dei tuoi modelli di machine learning (ML) su Vertex AI. Vertex AI offre una gamma di metodi di addestramento progettati per soddisfare le tue esigenze, da quelli completamente automatizzati a quelli completamente personalizzati.

  • AutoML: crea modelli di alta qualità con il minimo sforzo tecnico sfruttando le funzionalità di ML automatizzato di Google.
  • Addestramento serverless di Vertex AI: esegui il tuo codice di addestramento personalizzato in un ambiente on demand completamente gestito senza preoccuparti dell'infrastruttura.
  • Cluster di addestramento Vertex AI: esegui job di addestramento su larga scala e ad alte prestazioni su un cluster dedicato di acceleratori riservato al tuo uso esclusivo.
  • Ray su Vertex AI: scala le applicazioni Python e i workload ML utilizzando il framework open source Ray su un servizio gestito.

Per assistenza nella scelta del metodo da utilizzare, consulta Scegliere un metodo di addestramento.

AutoML

AutoML su Vertex AI ti consente di creare un modello ML senza codice in base ai dati di addestramento che fornisci. AutoML può automatizzare attività come la preparazione dei dati, la selezione del modello, l'ottimizzazione degli iperparametri e il deployment per vari tipi di dati e attività di previsione, il che può rendere l'ML più accessibile a un'ampia gamma di utenti.

Tipi di modelli che puoi creare utilizzando AutoML

I tipi di modelli che puoi creare dipendono dal tipo di dati a tua disposizione. Vertex AI offre soluzioni AutoML per i seguenti tipi di dati e obiettivi del modello:

Tipo di dati Obiettivi supportati
Dati dell'immagine Classificazione, rilevamento di oggetti.
Dati tabulari Classificazione/regressione, previsione.

Per saperne di più su AutoML, consulta la Panoramica dell'addestramento AutoML.

Esegui il codice di addestramento personalizzato su Vertex AI

Se AutoML non soddisfa le tue esigenze, puoi fornire il tuo codice di addestramento ed eseguirlo sull'infrastruttura gestita di Vertex AI. In questo modo hai il controllo completo e la flessibilità sull'architettura e sulla logica di addestramento del modello, il che ti consente di utilizzare qualsiasi framework ML tu scelga.

Vertex AI offre due modalità principali per l'esecuzione del codice di addestramento personalizzato: un ambiente serverless on demand o un cluster dedicato riservato.

Vertex AI Training serverless

L'addestramento serverless è un servizio completamente gestito che ti consente di eseguire la tua applicazione di addestramento personalizzata senza eseguire il provisioning o la gestione di alcuna infrastruttura. Pacchettizzi il codice in un container, definisci le specifiche della macchina (incluse CPU e GPU) e lo invii come CustomJob.

Vertex AI si occupa del resto:

  • Provisioning delle risorse di computing per la durata del job.
  • Esecuzione del codice di addestramento.
  • Eliminazione delle risorse al termine del job.

Questo modello on demand con pagamento a consumo è ideale per la sperimentazione, la prototipazione rapida e per i job di produzione che non richiedono capacità garantita e istantanea.

Per saperne di più, vedi Creare un job personalizzato di addestramento serverless

Cluster di addestramento Vertex AI

Per l'addestramento su larga scala, ad alte prestazioni e mission-critical, puoi riservare un cluster dedicato di acceleratori. In questo modo, la capacità è garantita e le code vengono eliminate, assicurando l'avvio immediato dei job.

Sebbene tu abbia l'utilizzo esclusivo di queste risorse, Vertex AI gestisce comunque il sovraccarico operativo della gestione del cluster, inclusa la manutenzione dell'hardware e l'applicazione di patch al sistema operativo. Questo approccio "serverful gestito" ti offre la potenza di un cluster dedicato senza la complessità della gestione.

Ray on Vertex AI

Ray su Vertex AI è un servizio che ti consente di utilizzare il framework Ray open source per scalare le applicazioni AI e Python direttamente all'interno della piattaforma Vertex AI. Ray è progettato per fornire l'infrastruttura per il calcolo distribuito e l'elaborazione parallela per il tuo workflow ML.

Ray on Vertex AI fornisce un ambiente gestito per l'esecuzione di applicazioni distribuite utilizzando il framework Ray, offrendo scalabilità e integrazione con i servizi Google Cloud .

Per saperne di più su Ray su Vertex AI, consulta la panoramica di Ray su Vertex AI.