Connettore Bigtable HBase Beam
Per aiutarti a utilizzare Bigtable in una pipeline Dataflow, sono disponibili due connettori Bigtable Beam I/O open source.
Se esegui la migrazione da HBase a Bigtable o la tua applicazione
chiama l'API HBase, utilizza il connettore Bigtable HBase Beam
(CloudBigtableIO) descritto in questa pagina.
In tutti gli altri casi, devi utilizzare il connettore Bigtable Beam
(BigtableIO) insieme al client Cloud Bigtable per Java, che funziona con le API Cloud Bigtable. Per iniziare a utilizzare questo
connettore, vedi Connettore Bigtable Beam.
Per ulteriori informazioni sul modello di programmazione Apache Beam, consulta la documentazione di Beam.
Inizia a utilizzare HBase
Il connettore Bigtable HBase Beam è scritto in Java e si basa sul client Bigtable HBase per Java. È compatibile con l'SDK Dataflow 2.x per Java, basato su Apache Beam. Il codice sorgente del connettore si trova su GitHub nel repository googleapis/java-bigtable-hbase.
Questa pagina fornisce una panoramica su come utilizzare le trasformazioni Read e Write.
Configura l'autenticazione
Per utilizzare gli esempi Java in questa pagina in un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.
-
Installa Google Cloud CLI.
-
Se utilizzi un provider di identità (IdP) esterno, devi prima accedere a gcloud CLI con la tua identità federata.
-
Se utilizzi una shell locale, crea credenziali di autenticazione locali per il tuo account utente:
gcloud auth application-default login
Non è necessario eseguire questa operazione se utilizzi Cloud Shell.
Se viene restituito un errore di autenticazione e utilizzi un provider di identità (IdP) esterno, verifica di aver acceduto a gcloud CLI con la tua identità federata.
Per saperne di più, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Per informazioni sulla configurazione dell'autenticazione per un ambiente di produzione, consulta Configurare le Credenziali predefinite dell'applicazione per il codice in esecuzione su Google Cloud .
Aggiungere il connettore a un progetto Maven
Per aggiungere il connettore Bigtable HBase Beam a un progetto Maven, aggiungi
l'artefatto Maven al file pom.xml come dipendenza:
Specifica la configurazione di Bigtable
Crea un'interfaccia delle opzioni per consentire gli input per l'esecuzione della pipeline:
Quando leggi o scrivi in Bigtable, devi fornire un oggetto di configurazione CloudBigtableConfiguration. Questo oggetto specifica
l'ID progetto e l'ID istanza per la tabella, nonché il nome della tabella
stessa:
Per la lettura, fornisci un oggetto di configurazione CloudBigtableScanConfiguration,
che ti consente di specificare un oggetto Scan Apache HBase che
limita e filtra i risultati di una lettura. Per ulteriori dettagli, consulta la sezione Lettura da Bigtable.
Lettura da Bigtable
Per leggere da una tabella Bigtable, applichi una trasformazione Read al risultato di un'operazione CloudBigtableIO.read. La trasformazione Read restituisce un
PCollection di oggetti Result HBase, dove ogni elemento
in PCollection rappresenta una singola riga della tabella.
Per impostazione predefinita, un'operazione CloudBigtableIO.read restituisce tutte le righe della tabella. Puoi utilizzare un oggetto HBase Scan per limitare la lettura a un intervallo di chiavi riga all'interno della tabella o per applicare filtri ai risultati della lettura. Per utilizzare un oggetto Scan, includilo in CloudBigtableScanConfiguration.
Ad esempio, puoi aggiungere un Scan che restituisce solo la prima coppia chiave-valore
di ogni riga della tabella, il che è utile per conteggiare il numero di righe
della tabella:
Scrivere in Bigtable
Per scrivere in una tabella Bigtable, devi apply un'operazione
CloudBigtableIO.writeToTable. Dovrai eseguire questa operazione
su un PCollection di oggetti HBase Mutation, che possono
includere oggetti Put e Delete.
La tabella Bigtable deve già esistere e deve avere
le famiglie di colonne appropriate definite. Il connettore Dataflow non crea tabelle e famiglie di colonne al volo. Puoi utilizzare la
CLI cbt
per creare una tabella e configurare le famiglie di colonne oppure puoi farlo in modo programmatico.
Prima di scrivere su Bigtable, devi creare la pipeline Dataflow in modo che le operazioni di inserimento ed eliminazione possano essere serializzate sulla rete:
In generale, devi eseguire una trasformazione, ad esempio un ParDo, per formattare
i dati di output in una raccolta di oggetti HBase Put o Delete. L'esempio
seguente mostra una trasformazione DoFn che prende il valore corrente
e lo utilizza come chiave di riga per un Put. Puoi quindi scrivere gli oggetti Put in
Bigtable.
Per abilitare il controllo del flusso di scrittura batch, imposta
BIGTABLE_ENABLE_BULK_MUTATION_FLOW_CONTROL su true. Questa funzionalità
limita automaticamente la frequenza del traffico per le richieste di scrittura batch e consente
alla scalabilità automatica di Bigtable di aggiungere o rimuovere automaticamente i nodi per gestire
il job Dataflow.
Di seguito è riportato l'esempio di scrittura completo, inclusa la variante che consente il controllo del flusso di scrittura batch.