Importazione ed esportazione di dati

In questa pagina sono elencati i metodi disponibili per importare ed esportare dati in e da Bigtable.

Importare dati in Bigtable

Puoi importare dati in Bigtable in uno dei seguenti modi:

BigQuery
Per importare dati BigQuery in Bigtable, vedi Esportare dati in Bigtable (ETL inverso) nella documentazione di BigQuery.
Puoi eseguire query continue sui dati BigQuery ed esportare i risultati in Bigtable in tempo reale utilizzando l'ETL inverso. Per ulteriori informazioni, vedi Introduzione alle query continue nella documentazione di BigQuery.
Pub/Sub
Puoi eseguire lo streaming dei messaggi da Pub/Sub direttamente a una tabella Bigtable utilizzando sottoscrizioni Pub/Sub Bigtable (anteprima). Questo metodo ti consente di scrivere messaggi in streaming in Bigtable senza la necessità di un abbonato separato come Dataflow.

Spostare o copiare i dati utilizzando un modello

Puoi utilizzare i seguenti modelli Dataflow per spostare o copiare i dati tra Bigtable e altre origini o destinazioni.

BigQuery

Il seguente modello Dataflow consente di esportare i dati da BigQuery a Bigtable.

Da Apache Cassandra a Bigtable

Il seguente modello Dataflow consente di esportare i dati da Apache Cassandra a Bigtable.

File Avro

I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come file Avro e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la Google Cloud CLI o la Google Cloud console. Il codice sorgente è disponibile su GitHub.

File Parquet

I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come file Parquet e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la gcloud CLI o la Google Cloud console. Il codice sorgente è disponibile su GitHub.

SequenceFiles

I seguenti modelli Dataflow consentono di esportare i dati da Bigtable come SequenceFile e poi di importarli di nuovo in Bigtable. Puoi eseguire i modelli utilizzando la Google Cloud CLI o la Google Cloud console.

Importare dalla pagina Tabelle

Puoi eseguire molti dei metodi di importazione descritti in questa pagina utilizzando la Google Cloud console. Importa i seguenti tipi di dati dalla pagina Tabelle:

  • Dati CSV
  • Dati BigQuery
  • Dati che puoi importare con il builder dei job Dataflow. Sono inclusi i seguenti tipi di dati:
    • Messaggi Pub/Sub
    • Dati delle tabelle BigQuery
    • File CSV, file JSON e file di testo in Cloud Storage
    • Dati delle tabelle PostgreSQL, MySQL, Oracle e SQL Server
  • Dati che puoi importare con il modello Dataflow. Sono inclusi i seguenti tipi di dati:

    • File Avro
    • Spazi chiave e tabelle Cassandra
    • File Parquet
    • File SequenceFile

Console

  1. Apri l'elenco delle istanze Bigtable nella Google Cloud console.

    Apri l'elenco delle istanze

  2. Fai clic sull'istanza che contiene la tabella che vuoi importare.

  3. Fai clic su Tabelle nel riquadro a sinistra.

    La pagina Tabelle mostra un elenco di tabelle nell'istanza.

  4. Accanto al nome della tabella in cui vuoi importare i dati, fai clic sul menu Azione tabella.

  5. Fai clic su Importa dati e poi seleziona il tipo di dati che vuoi importare:

    • Se selezioni CSV, si apre la finestra del terminale della CLI cbt. Per ulteriori informazioni, vedi la sezione Importare dati CSV di questo documento.
    • Se selezioni BigQuery, si apre BigQuery Studio. Compila la query ETL inversa ed eseguila.
    • Se selezioni il builder dei job Dataflow, si apre il builder dei job. Per ulteriori informazioni, vedi Panoramica dell'interfaccia utente del builder dei job.
    • Se selezioni Avro, Parquet, SequenceFile o Cassandra, la console visualizza un modello Dataflow compilato parzialmente. Compila il modello di job e fai clic su Esegui job.

Esportare dalla pagina Tabelle

Puoi eseguire alcuni dei metodi di esportazione descritti in questa pagina utilizzando la Google Cloud console. Esporta i seguenti tipi di dati dalla pagina Tabelle:

  • File Avro
  • File Parquet
  • File SequenceFile

Console

  1. Apri l'elenco delle istanze Bigtable nella Google Cloud console.

    Apri l'elenco delle istanze

  2. Fai clic sull'istanza che contiene la tabella che vuoi esportare.

  3. Fai clic su Tabelle nel riquadro a sinistra.

    La pagina Tabelle mostra un elenco di tabelle nell'istanza.

  4. Accanto al nome della tabella, fai clic sul menu Azione tabella.

  5. Fai clic su Esporta dati e poi seleziona il tipo di file che vuoi esportare.

    La console visualizza un modello Dataflow compilato parzialmente.

  6. Compila il modello di job e fai clic su Esegui job.

Importare dati CSV

Puoi importare i dati da un file CSV in una tabella Bigtable utilizzando la cbt CLI . Per farlo, devi assicurarti che il tuo ambiente, ad esempio Cloud Shell, possa accedere al file CSV. Puoi inserire il file CSV in Cloud Shell in uno dei seguenti modi:

Caricare un file CSV locale:

  1. In Cloud Shell, fai clic sul menu Altro e seleziona Carica.
  2. Seleziona il file CSV dalla macchina locale.
  3. Dopo aver caricato il file, fai riferimento al file per nome nel cbt CLI comando.

Copiare un file CSV da Cloud Storage:

La cbt CLI non supporta direttamente l'importazione da un bucket Cloud Storage. Devi prima copiare il file CSV da Cloud Storage nel tuo ambiente Cloud Shell. Per ulteriori informazioni, vedi Caricare un oggetto in un bucket.

Dopo che il file CSV è disponibile nel tuo ambiente, utilizza il cbt CLI comando per importare i dati. Per un comando di esempio, vedi Scrivere in batch molte righe in base al file di input.

Passaggi successivi