Panoramica dei dati tabulari

Vertex AI ti consente di eseguire il machine learning con dati tabulari utilizzando processi e interfacce semplici. Puoi creare i seguenti tipi di modelli per i problemi relativi ai dati tabulari:

  • I modelli di classificazione binaria prevedono un risultato binario (una delle due classi). Utilizza questo tipo di modello per le domande a cui si risponde con un sì o un no. Ad esempio, potresti voler creare un modello di classificazione binaria per prevedere se un cliente acquisterà un abbonamento. In genere, un problema di classificazione binaria richiede meno dati rispetto ad altri tipi di modelli.
  • I modelli di classificazione multi-classe prevedono una classe tra tre o più classi discrete. Utilizza questo tipo di modello per la categorizzazione. Ad esempio, in qualità di rivenditore, potresti voler creare un modello di classificazione multi-classe per segmentare i clienti in diverse buyer persona.
  • I modelli di regressione prevedono un valore continuo. Ad esempio, in qualità di rivenditore, potresti voler creare un modello di regressione per prevedere quanto spenderà un cliente il mese successivo.
  • I modelli di previsione prevedono una sequenza di valori. Ad esempio, in qualità di rivenditore, potresti voler prevedere la domanda giornaliera dei tuoi prodotti per i prossimi 3 mesi in modo da poter rifornire in anticipo le scorte di prodotti in modo appropriato.

Per un'introduzione al machine learning con dati tabulari, consulta Introduzione ai dati tabulari. Per ulteriori informazioni sulle soluzioni Vertex AI, consulta Soluzioni Vertex AI per la classificazione e la regressione e Soluzioni Vertex AI per la previsione.

Una nota sull'equità

Google si impegna a fare progressi nel seguire le pratiche di AI responsabile. A questo scopo, i nostri prodotti ML, incluso AutoML, sono progettati in base a principi fondamentali come l'equità e il machine learning incentrato sull'uomo. Per ulteriori informazioni sulle best practice per mitigare i bias durante la creazione del tuo sistema ML, consulta la guida ML inclusivo - AutoML.

Soluzioni Vertex AI per la classificazione e la regressione

Vertex AI offre le seguenti soluzioni per la classificazione e la regressione:

Flusso di lavoro tabulare per AutoML end-to-end

Il flusso di lavoro tabulare per AutoML end-to-end è una pipeline AutoML completa per le attività di classificazione e regressione. È simile all' API AutoML, ma ti consente di scegliere cosa controllare e cosa automatizzare. Anziché avere controlli per l'intera pipeline, hai controlli per ogni passaggio della pipeline. Questi controlli della pipeline includono:

  • Suddivisione dei dati
  • Feature engineering
  • Ricerca dell'architettura
  • Addestramento del modello
  • Ensemble di modelli
  • Distillazione del modello

Vantaggi

  • Supporta set di dati di grandi dimensioni di più TB e con un massimo di 1000 colonne.
  • Ti consente di migliorare la stabilità e ridurre i tempi di addestramento limitando lo spazio di ricerca dei tipi di architettura o saltando la ricerca dell'architettura.
  • Ti consente di migliorare la velocità di addestramento selezionando manualmente l'hardware utilizzato per l'addestramento e la ricerca dell'architettura.
  • Ti consente di ridurre le dimensioni del modello e migliorare la latenza con la distillazione o modificando le dimensioni dell'ensemble.
  • Ogni componente AutoML può essere ispezionato in una potente interfaccia grafica delle pipeline che ti consente di visualizzare le tabelle dei dati trasformati, le architetture dei modelli valutati e molti altri dettagli.
  • Ogni componente AutoML offre maggiore flessibilità e trasparenza, ad esempio la possibilità di personalizzare parametri, hardware, visualizzare lo stato del processo, i log e altro ancora.

Per saperne di più sui workflow tabulari, consulta Workflow tabulari su Vertex AI. Per saperne di più sul flusso di lavoro tabulare per AutoML end-to-end, consulta Flusso di lavoro tabulare per AutoML end-to-end.

Flusso di lavoro tabulare per TabNet

Il flusso di lavoro tabulare per TabNet è una pipeline che puoi utilizzare per addestrare modelli di classificazione o regressione. TabNet si avvale dell'attenzione sequenziale per scegliere le caratteristiche alla base del ragionamento in ogni fase decisionale. Ciò promuove l'interpretabilità e un apprendimento più efficiente perché la capacità di apprendimento viene utilizzata per le caratteristiche più salienti.

Vantaggi

  • Seleziona automaticamente lo spazio di ricerca degli iperparametri appropriato in base alle dimensioni del set di dati, al tipo di inferenza e al budget di addestramento.
  • Integrato con Vertex AI. Il modello addestrato è un modello Vertex AI. Puoi eseguire subito inferenze batch o eseguire il deployment del modello per le inferenze online.
  • Fornisce l'interpretabilità del modello intrinseca. Puoi ottenere informazioni sulle caratteristiche utilizzate da TabNet per prendere la decisione.
  • Supporta l'addestramento con GPU.

Per saperne di più sui workflow tabulari, consulta Workflow tabulari su Vertex AI. Per saperne di più sul workflow tabulare per TabNet, consulta Workflow tabulare per TabNet.

Classificazione e regressione con AutoML

Vertex AI offre pipeline integrate e completamente gestite per le attività di classificazione o regressione end-to-end. Vertex AI cerca l'insieme ottimale di iperparametri, addestra più modelli con più insiemi di iperparametri e poi crea un singolo modello finale da un ensemble dei modelli principali. Vertex AI considera le reti neurali e gli alberi potenziati per i tipi di modelli.

Vantaggi

  • Facile da usare: Vertex AI sceglie il tipo di modello, i parametri del modello e l'hardware per te.

Per ulteriori informazioni, consulta la panoramica sulla classificazione e la regressione.

Soluzioni Vertex AI per la previsione

Vertex AI offre le seguenti soluzioni per la previsione:

Flusso di lavoro tabulare per la previsione

Il workflow tabulare per la previsione è la pipeline completa per le attività di previsione. È simile all' API AutoML, ma ti consente di scegliere cosa controllare e cosa automatizzare. Anziché avere controlli per l'intera pipeline, hai controlli per ogni passaggio della pipeline. Questi controlli della pipeline includono:

  • Suddivisione dei dati
  • Feature engineering
  • Ricerca dell'architettura
  • Addestramento del modello
  • Ensemble di modelli

Vantaggi

  • Supporta set di dati di grandi dimensioni fino a 1 TB e con un massimo di 200 colonne.
  • Ti consente di migliorare la stabilità e ridurre i tempi di addestramento limitando lo spazio di ricerca dei tipi di architettura o saltando la ricerca dell'architettura.
  • Ti consente di migliorare la velocità di addestramento selezionando manualmente l'hardware utilizzato per l'addestramento e la ricerca dell'architettura.
  • Ti consente di ridurre le dimensioni del modello e migliorare la latenza modificando le dimensioni dell'ensemble.
  • Ogni componente può essere ispezionato in una potente interfaccia grafica delle pipeline che ti consente di visualizzare le tabelle dei dati trasformati, le architetture dei modelli valutati e molti altri dettagli.
  • Ogni componente offre maggiore flessibilità e trasparenza, ad esempio la possibilità di personalizzare parametri, hardware, visualizzare lo stato del processo, i log e altro ancora.

Per saperne di più sui workflow tabulari, consulta Workflow tabulari su Vertex AI. Per saperne di più sul flusso di lavoro tabulare per la previsione, consulta Flusso di lavoro tabulare per la previsione.

Previsione con AutoML

Vertex AI offre una pipeline integrata e completamente gestita per le attività di previsione end-to-end. Vertex AI cerca l'insieme ottimale di iperparametri, addestra più modelli con più insiemi di iperparametri e poi crea un singolo modello finale da un ensemble dei modelli principali. Puoi scegliere tra Time series Dense Encoder (TiDE), Temporal Fusion Transformer (TFT), AutoML (L2L), e Seq2Seq+ per il metodo di addestramento del modello. Vertex AI considera solo reti neurali per il tipo di modello.

Vantaggi

  • Facile da usare: Vertex AI sceglie i parametri del modello e l'hardware per te.

Per ulteriori informazioni, consulta la panoramica sulla previsione.

Previsione con ARIMA_PLUS di BigQuery ML

ARIMA_PLUS di BigQuery ML è un modello di previsione univariato. In quanto modello statistico, è più veloce da addestrare rispetto a un modello basato su reti neurali. Ti consigliamo di addestrare un modello ARIMA_PLUS di BigQuery ML se devi eseguire molte iterazioni rapide dell'addestramento del modello o se hai bisogno di una baseline economica per confrontare altri modelli.

Come Prophet, ARIMA_PLUS di BigQuery ML tenta di scomporre ogni serie temporale in tendenze, stagioni e festività, producendo una previsione utilizzando l'aggregazione delle inferenze di questi modelli. Una delle tante differenze, tuttavia, è che ARIMA+ di BQML utilizza ARIMA per modellare il componente di tendenza, mentre Prophet tenta di adattare una curva utilizzando un modello logistico o lineare a tratti.

Google Cloud offre una pipeline per l'addestramento di un modello ARIMA_PLUS di BigQuery ML e una pipeline per ottenere inferenze batch da un modello ARIMA_PLUS di BigQuery ML. Entrambe le pipeline sono istanze di Vertex AI Pipelines da Google Cloud Pipeline Components (GCPC).

Vantaggi

  • Facile da usare: BigQuery sceglie i parametri del modello e l'hardware per te.
  • Veloce: l'addestramento del modello fornisce una baseline a basso costo per confrontare altri modelli.

Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.

Previsione con Prophet

Prophet è un modello di previsione gestito da Meta. Consulta l'articolo di Prophet per i dettagli dell'algoritmo e la documentazione per ulteriori informazioni sulla libreria.

Come ARIMA_PLUS di BigQuery ML, Prophet tenta di scomporre ogni serie temporale in tendenze, stagioni e festività, producendo una previsione utilizzando l'aggregazione delle inferenze di questi modelli. Una differenza importante, tuttavia, è che ARIMA+ di BQML utilizza ARIMA per modellare il componente di tendenza, mentre Prophet tenta di adattare una curva utilizzando un modello logistico o lineare a tratti.

Google Cloud offre una pipeline per l'addestramento di un modello Prophet e una pipeline per ottenere inferenze batch da un modello Prophet. Entrambe le pipeline sono istanze di Vertex AI Pipelines da Google Cloud Pipeline Components (GCPC).

L'integrazione di Prophet con Vertex AI ti consente di:

Sebbene Prophet sia un modello multivariato, Vertex AI ne supporta solo una versione univariata.

Vantaggi

  • Flessibile: puoi migliorare la velocità di addestramento selezionando l'hardware utilizzato per l'addestramento.

Per ulteriori informazioni, consulta la sezione Previsione con Prophet.

Passaggi successivi