Importazione ed esportazione di dati
In questa pagina sono elencati i metodi disponibili per importare ed esportare dati in e da Bigtable.
Importare dati in Bigtable
Puoi importare dati in Bigtable in uno dei seguenti modi:
- BigQuery
- Per importare dati BigQuery in Bigtable, vedi Esportare dati in Bigtable (ETL inverso) nella documentazione di BigQuery.
- Puoi eseguire query continue sui dati BigQuery ed esportare i risultati in Bigtable in tempo reale utilizzando l'ETL inverso. Per ulteriori informazioni, vedi Introduzione alle query continue nella documentazione di BigQuery.
- Pub/Sub
- Puoi eseguire lo streaming dei messaggi da Pub/Sub direttamente a una tabella Bigtable utilizzando sottoscrizioni Pub/Sub Bigtable (anteprima). Questo metodo ti consente di scrivere messaggi in streaming in Bigtable senza la necessità di un abbonato separato come Dataflow.
Spostare o copiare i dati utilizzando un modello
Puoi utilizzare i seguenti modelli Dataflow per spostare o copiare i dati tra Bigtable e altre origini o destinazioni.
BigQuery
Il seguente modello Dataflow consente di esportare i dati da BigQuery a Bigtable.
Da Apache Cassandra a Bigtable
Il seguente modello Dataflow consente di esportare i dati da Apache Cassandra a Bigtable.
File Avro
I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come file Avro e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la Google Cloud CLI o la Google Cloud console. Il codice sorgente è disponibile su GitHub.
File Parquet
I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come file Parquet e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la gcloud CLI o la Google Cloud console. Il codice sorgente è disponibile su GitHub.
SequenceFiles
I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come SequenceFile e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la Google Cloud CLI o la Google Cloud console.
Importare dalla pagina Tabelle
Puoi eseguire molti dei metodi di importazione descritti in questa pagina utilizzando la Google Cloud console. Importa i seguenti tipi di dati dalla pagina Tabelle:
- Dati CSV
- Dati BigQuery
- Dati che puoi importare con il builder dei job Dataflow. Sono inclusi i seguenti tipi di dati:
- Messaggi Pub/Sub
- Dati delle tabelle BigQuery
- File CSV, file JSON e file di testo in Cloud Storage
- Dati delle tabelle PostgreSQL, MySQL, Oracle e SQL Server
Dati che puoi importare con il modello Dataflow. Sono inclusi i seguenti tipi di dati:
- File Avro
- Spazi chiave e tabelle Cassandra
- File Parquet
- File SequenceFile
Console
Apri l'elenco delle istanze Bigtable nella Google Cloud console.
Fai clic sull'istanza che contiene la tabella che vuoi importare.
Fai clic su Tabelle nel riquadro a sinistra.
La pagina Tabelle mostra un elenco di tabelle nell'istanza.
Accanto al nome della tabella in cui vuoi importare i dati, fai clic sul menu Azione tabella.
Fai clic su Importa dati e poi seleziona il tipo di dati che vuoi importare:
- Se selezioni CSV, si apre la finestra del terminale della CLI
cbt. Per ulteriori informazioni, vedi la sezione Importare dati CSV di questo documento. - Se selezioni BigQuery, si apre BigQuery Studio. Compila la query ETL inversa ed eseguila.
- Se selezioni il builder dei job Dataflow, si apre il builder dei job. Per ulteriori informazioni, vedi Panoramica dell'interfaccia utente del builder dei job.
- Se selezioni Avro, Parquet, SequenceFile o Cassandra, la console visualizza un modello Dataflow compilato parzialmente. Compila il modello di job e fai clic su Esegui job.
- Se selezioni CSV, si apre la finestra del terminale della CLI
Esportare dalla pagina Tabelle
Puoi eseguire alcuni dei metodi di esportazione descritti in questa pagina utilizzando la Google Cloud console. Esporta i seguenti tipi di dati dalla pagina Tabelle:
- File Avro
- File Parquet
File SequenceFile
Console
Apri l'elenco delle istanze Bigtable nella Google Cloud console.
Fai clic sull'istanza che contiene la tabella che vuoi esportare.
Fai clic su Tabelle nel riquadro a sinistra.
La pagina Tabelle mostra un elenco di tabelle nell'istanza.
Accanto al nome della tabella, fai clic sul menu Azione tabella.
Fai clic su Esporta dati e poi seleziona il tipo di file che vuoi esportare.
La console visualizza un modello Dataflow compilato parzialmente.
Compila il modello di job e fai clic su Esegui job.
Importare dati CSV
Puoi importare i dati da un file CSV in una tabella Bigtable utilizzando
la
cbt CLI
. Per farlo, devi assicurarti che il tuo ambiente, ad esempio Cloud Shell, possa accedere al file CSV. Puoi inserire il file CSV in Cloud Shell in uno dei seguenti modi:
Caricare un file CSV locale:
- In Cloud Shell, fai clic sul menu Altro e seleziona Carica.
- Seleziona il file CSV dalla macchina locale.
- Dopo aver caricato il file, fai riferimento al file per nome nel
cbtCLI comando.
Copiare un file CSV da Cloud Storage:
La
cbt CLI
non supporta direttamente l'importazione da un bucket Cloud Storage. Devi prima copiare il file CSV da Cloud Storage nel tuo ambiente Cloud Shell. Per ulteriori informazioni, vedi
Caricare un oggetto in un bucket.
Dopo che il file CSV è disponibile nel tuo ambiente, utilizza il
cbt CLI
comando per importare i dati. Per un comando di esempio, vedi
Scrivere in batch molte righe in base al file di input.
Passaggi successivi
- Crea, copia o ripristina da un backup di Bigtable.
- Esplora i concetti relativi alla progettazione di uno schema Bigtable.
- Esegui la migrazione a Bigtable.