Integrazioni con Bigtable
Questa pagina descrive le integrazioni tra Bigtable e altri prodotti e servizi.
Google Cloud Servizi
Questa sezione descrive i Google Cloud servizi con cui Bigtable si integra.
BigQuery
BigQuery è il data warehouse di analisi di Google completamente gestito, su scala petabyte e dai costi contenuti. Puoi utilizzare BigQuery con Bigtable per i seguenti scopi:
Puoi creare una tabella esterna BigQuery e poi utilizzarla per eseguire query sulla tabella Bigtable e unire i dati ad altre tabelle BigQuery. Per saperne di più, consulta Eseguire query sui dati Bigtable.
Puoi esportare i dati BigQuery in una tabella Bigtable utilizzando ETL inverso (RETL) da BigQuery a Bigtable. Per saperne di più, consulta Esportare i dati in Bigtable.
Cloud Asset Inventory
Cloud Asset Inventory, che fornisce servizi di inventario basati su un database di serie temporali, supporta e restituisce i tipi di risorse Bigtable. Per un elenco completo, consulta Tipi di risorse supportati.
Dataplex Universal Catalog
Dataplex Universal Catalog e Data Catalog (ritirato) catalogano automaticamente i metadati relativi alle risorse Bigtable. Le informazioni catalogate sui tuoi dati possono facilitare l'analisi, il riutilizzo dei dati, lo sviluppo di applicazioni e la gestione dei dati. Per saperne di più, consulta Gestire gli asset di dati utilizzando Data Catalog.
Dataflow
Dataflow è un servizio cloud e un modello di programmazione per l'elaborazione di big data. Dataflow supporta l'elaborazione in batch e in streaming. Puoi utilizzare Dataflow per elaborare i dati archiviati in Bigtable o per archiviare l'output della tua pipeline Dataflow. Puoi anche utilizzare i modelli Dataflow per esportare e importare i tuoi dati come Avro, Parquet o SequenceFiles.
Per iniziare, consulta Connettore Beam Bigtable.
Puoi anche utilizzare Bigtable come ricerca coppia chiave-valore per arricchire i dati in una pipeline. Per una panoramica, consulta Arricchire i dati in streaming. Per un tutorial, consulta Utilizzare Apache Beam e Bigtable per arricchire i dati.
Managed Service per Apache Spark
Managed Service per Apache Spark fornisce Apache Hadoop e i prodotti correlati come servizio gestito nel cloud. Con Managed Service per Apache Spark, puoi eseguire job Hadoop che leggono e scrivono in Bigtable.
Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta
la directory /java/dataproc-wordcount nel repository GitHub
GoogleCloudPlatform/cloud-bigtable-examples.
Vertex AI Vector Search
Vertex AI Vector Search è una tecnologia che può cercare tra miliardi di elementi semanticamente simili o correlati. È utile per implementare motori per suggerimenti, chatbot e classificazione del testo.
Puoi utilizzare Bigtable per archiviare gli incorporamenti vettoriali, esportarli in un indice Vector Search e poi eseguire query sull'indice per trovare elementi simili. Per
un tutorial che mostra un flusso di lavoro di esempio, consulta Esportazione da Bigtable a
Vertex AI Vector Search nel
workflows-demos repository GitHub.
Puoi anche eseguire il push degli aggiornamenti in streaming per mantenere l'indice di ricerca vettoriale sincronizzato con Bigtable in tempo reale. Per saperne di più, consulta il modello di modifiche in tempo reale Bigtable a Vector Search.
Big data
Questa sezione descrive i prodotti Big Data con cui Bigtable si integra.
Apache Beam
Apache Beam è un modello unificato per la definizione di pipeline di elaborazione parallela dei dati in batch e in streaming. Il
connettore Beam Bigtable (BigtableIO)
ti aiuta a eseguire operazioni in batch e in streaming sui dati Bigtable
in una pipeline.
Per un tutorial che mostra come utilizzare il connettore Beam Bigtable per eseguire il deployment di una pipeline di dati in Dataflow, consulta Elaborare un flusso di modifiche Bigtable.
Apache Hadoop
Apache Hadoop è un framework che consente l'elaborazione distribuita di grandi set di dati su cluster di computer. Puoi utilizzare Managed Service per Apache Spark per creare un cluster Hadoop, quindi eseguire job MapReduce che leggono e scrivono in Bigtable.
Per un esempio di job Hadoop MapReduce che utilizza Bigtable, consulta
la directory /java/dataproc-wordcount nel repository GitHub
GoogleCloudPlatform/cloud-bigtable-examples.
StreamSets Data Collector
StreamSets Data Collector è un'applicazione di streaming di dati che puoi configurare per scrivere dati in Bigtable. StreamSets fornisce una libreria Bigtable nel suo repository GitHub all'indirizzo streamsets/datacollector.
Database a grafo
Questa sezione descrive i database a grafo con cui Bigtable si integra.
HGraphDB
HGraphDB è un livello client per l'utilizzo di Apache HBase o Bigtable come database a grafo. Implementa le interfacce Apache TinkerPop 3.
Per saperne di più sull'esecuzione di HGraphDB con il supporto di Bigtable, consulta la documentazione di HGraphDB.
JanusGraph
JanusGraph è un database a grafo scalabile. È ottimizzato per l'archiviazione e l'esecuzione di query su grafici contenenti centinaia di miliardi di vertici e bordi.
Per saperne di più sull'esecuzione di JanusGraph con il supporto di Bigtable, consulta Eseguire JanusGraph con Bigtable o la documentazione di JanusGraph.
Gestione dell'infrastruttura
Questa sezione descrive gli strumenti di gestione dell'infrastruttura con cui Bigtable si integra.
Pivotal Cloud Foundry
Pivotal Cloud Foundry è una piattaforma di sviluppo e deployment di applicazioni che offre la possibilità di associare un'applicazione a Bigtable.
Terraform
Terraform è uno strumento open source che codifica le API in file di configurazione dichiarativi. Questi file possono essere condivisi tra i membri del team, trattati come codice, modificati, rivisti e sottoposti al controllo delle versioni.
Per saperne di più sull'utilizzo di Bigtable con Terraform, consulta Istanza Bigtable e Tabella Bigtable nella documentazione di Terraform.
Database di serie temporali e monitoraggio
Questa sezione descrive i database di serie temporali e gli strumenti di monitoraggio con cui Bigtable si integra.
OpenTSDB
OpenTSDB è un database di serie temporali che può utilizzare Bigtable per l'archiviazione. La documentazione di OpenTSDB fornisce informazioni per aiutarti a iniziare.