Casi d'uso di Dataflow

Dataflow è progettato per supportare pipeline di streaming e batch su larga scala. Dataflow è basato sul framework Apache Beam open source.

Questa pagina contiene link a tutorial ed esempi di casi d'uso per aiutarti a iniziare.

Spostamento dei dati

Scopri come utilizzare Dataflow Job Builder per importare dati da cataloghi REST Apache Iceberg esterni nelle tabelle gestite di Lakehouse.
Scopri come utilizzare il generatore di job Dataflow per aggiungere file Apache Parquet esistenti da spazio di archiviazione sul cloud a una tabella Apache Iceberg in Lakehouse.
Questo tutorial mostra come eseguire un modello Dataflow che legge da Managed Service for Apache Kafka e scrive i record in una tabella BigQuery.
Questo tutorial mostra come eseguire un modello Dataflow che legge i messaggi con codifica JSON da Pub/Sub e li scrive in una tabella BigQuery.

Dataflow ML

Questo notebook mostra come utilizzare i modelli ML nelle pipeline Apache Beam che utilizzano la trasformazione RunInference.
Questo notebook mostra come eseguire l'inferenza di machine learning utilizzando vLLM e le GPU. vLLM è una libreria per l'inferenza e l'erogazione di LLM.

Altre risorse

Link a codice campione e guide di riferimento tecnico per i casi d'uso comuni di Dataflow.
In questo tutorial, crei una pipeline che trasforma i dati di e-commerce da Pub/Sub e li invia a BigQuery e Bigtable.
Con Dataflow, puoi eseguire carichi di lavoro altamente paralleli in un'unica pipeline, migliorando l'efficienza e semplificando la gestione del flusso di lavoro.