Daten importieren und exportieren
Auf dieser Seite werden die verfügbaren Methoden zum Importieren und Exportieren von Daten in und aus Bigtable aufgeführt.
Daten in Bigtable importieren
Sie können Daten auf eine der folgenden Arten in Bigtable importieren:
- BigQuery
- Informationen zum Importieren von BigQuery-Daten in Bigtable finden Sie in der BigQuery-Dokumentation unter Daten nach Bigtable exportieren (Reverse-ETL).
- Sie können kontinuierliche Abfragen für Ihre BigQuery-Daten ausführen und die Ergebnisse in Echtzeit mit Reverse-ETL nach Bigtable exportieren. Weitere Informationen finden Sie in der BigQuery-Dokumentation unter Einführung in kontinuierliche Abfragen.
- Pub/Sub
- Sie können Nachrichten mit Pub/Sub-Bigtable-Abos (Vorschau) direkt von Pub/Sub in eine Bigtable-Tabelle streamen. Mit dieser Methode können Sie Streamingnachrichten in Bigtable schreiben, ohne einen separaten Abonnenten wie Dataflow zu benötigen.
Daten mit einer Vorlage verschieben oder kopieren
Mit den folgenden Dataflow-Vorlagen können Sie Daten zwischen Bigtable und anderen Quellen oder Zielen verschieben oder kopieren.
BigQuery
Mit der folgenden Dataflow-Vorlage können Sie Daten aus BigQuery nach Bigtable exportieren.
Apache Cassandra für Bigtable
Mit der folgenden Dataflow-Vorlage können Sie Daten aus Apache Cassandra nach Bigtable exportieren.
Avro-Dateien
Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als Avro-Dateien exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der Google Cloud CLI oder der Google Cloud Console ausführen. Der Quellcode ist auf GitHub verfügbar.
Parquet-Dateien
Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als Parquet-Dateien exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der gcloud CLI oder der Google Cloud Console ausführen. Der Quellcode ist auf GitHub verfügbar.
SequenceFiles
Mit den folgenden Dataflow-Vorlagen können Sie Daten aus Bigtable als SequenceFiles exportieren und anschließend wieder in Bigtable importieren. Sie können die Vorlagen mit der Google Cloud CLI oder der Google Cloud Console ausführen.
Von der Seite „Tabellen“ importieren
Viele der auf dieser Seite beschriebenen Importmethoden können Sie über die Google Cloud Console ausführen. Importieren Sie die folgenden Datentypen von der Seite Tabellen:
- CSV-Daten
- BigQuery-Daten
- Daten, die Sie mit dem Dataflow-Job-Builder importieren können. Dazu gehören die folgenden Datentypen:
- Pub/Sub-Nachrichten
- BigQuery-Tabellendaten
- CSV-Dateien, JSON-Dateien und Textdateien in Cloud Storage
- PostgreSQL-, MySQL-, Oracle- und SQL Server-Tabellendaten
Daten, die Sie mit der Dataflow-Vorlage importieren können. Dazu gehören die folgenden Datentypen:
- Avro-Dateien
- Cassandra-Schlüsselbereiche und -Tabellen
- Parquet-Dateien
- SequenceFile-Dateien
Console
Öffnen Sie in der Google Cloud Console die Liste der Bigtable-Instanzen.
Klicken Sie auf die Instanz, die die Tabelle enthält, die Sie importieren möchten.
Klicken Sie im linken Bereich auf Tabellen.
Die Seite Tabellen enthält eine Liste der in der Instanz vorhandenen Tabellen.
Klicken Sie neben dem Namen der Tabelle, in die Sie Daten importieren möchten, auf das Tabellenaktion-Menü.
Klicken Sie auf Daten importieren und wählen Sie dann den Datentyp aus, den Sie importieren möchten:
- Wenn Sie „CSV“ auswählen, wird das
cbtCLI -Terminalfenster geöffnet. Weitere Informationen finden Sie im Abschnitt CSV-Daten importieren in diesem Dokument. - Wenn Sie „BigQuery“ auswählen, wird BigQuery Studio geöffnet. Füllen Sie die Reverse-ETL-Abfrage aus und führen Sie sie aus.
- Wenn Sie den Dataflow-Job-Builder auswählen, wird der Job-Builder geöffnet. Weitere Informationen finden Sie unter Übersicht über die Job-Builder-UI.
- Wenn Sie „Avro“, „Parquet“, „SequenceFile“ oder „Cassandra“ auswählen, wird in der Console eine unvollständige Dataflow-Vorlage angezeigt. Füllen Sie die Jobvorlage aus und klicken Sie auf Job ausführen.
- Wenn Sie „CSV“ auswählen, wird das
Von der Seite „Tabellen“ exportieren
Einige der auf dieser Seite beschriebenen Exportmethoden können Sie über die Google Cloud Console ausführen. Exportieren Sie die folgenden Datentypen von der Seite Tabellen:
- Avro-Dateien
- Parquet-Dateien
SequenceFile-Dateien
Console
Öffnen Sie in der Google Cloud Console die Liste der Bigtable-Instanzen.
Klicken Sie auf die Instanz, die die Tabelle enthält, die Sie exportieren möchten.
Klicken Sie im linken Bereich auf Tabellen.
Die Seite Tabellen enthält eine Liste der in der Instanz vorhandenen Tabellen.
Klicken Sie neben dem Namen der Tabelle auf das Tabellenaktion-Menü.
Klicken Sie auf Daten exportieren und wählen Sie dann den Dateityp aus, den Sie exportieren möchten.
In der Konsole ist eine unvollständige Dataflow-Vorlage zu sehen.
Füllen Sie die Jobvorlage aus und klicken Sie auf Job ausführen.
CSV-Daten importieren
Sie können Daten aus einer CSV-Datei mit
der
cbt CLI
in eine Bigtable-Tabelle importieren. Dazu muss Ihre Umgebung, z. B. Cloud Shell, auf die CSV-Datei zugreifen können. Sie können Ihre CSV-Datei auf eine der folgenden Arten in Cloud Shell abrufen:
Lokale CSV-Datei hochladen:
- Klicken Sie in Cloud Shell auf das Dreipunkt-Menü und wählen Sie Hochladen aus.
- Wählen Sie die CSV-Datei auf Ihrem lokalen Computer aus.
- Nachdem Sie die Datei hochgeladen haben, verweisen Sie im
cbtCLI Befehl mit dem Namen auf die Datei.
CSV-Datei aus Cloud Storage kopieren:
Die
cbt CLI
unterstützt das Importieren aus einem Cloud Storage
Bucket nicht direkt. Sie müssen die CSV-Datei zuerst aus Cloud Storage in Ihre Cloud Shell-Umgebung kopieren. Weitere Informationen finden Sie unter
Objekt in einen Bucket hochladen.
Nachdem die CSV-Datei in Ihrer Umgebung verfügbar ist, verwenden Sie den
cbt CLI
Befehl, um die Daten zu importieren. Ein Beispielbefehl finden Sie unter
Viele Zeilen basierend auf der Eingabedatei im Batch-Modus schreiben.
Nächste Schritte
- Bigtable-Sicherung erstellen, kopieren oder wiederherstellen
- Konzepte zum Entwerfen eines Bigtable-Schemas kennenlernen
- Zu Bigtable migrieren.