Utilizzare la protezione dei dati sensibili con BigQuery

Questa pagina contiene riferimenti a pagine che forniscono informazioni su come utilizzare Sensitive Data Protection con BigQuery.

Guide rapide

Guida rapida: pianificare una scansione di ispezione di Sensitive Data Protection
Pianifica l'ispezione periodica di un bucket Cloud Storage, una tabella BigQuery o un tipo Datastore. Per istruzioni dettagliate, vedi Creare e pianificare job di ispezione di Sensitive Data Protection.

Guide illustrative

Questa sezione fornisce un elenco classificato di guide basate sulle attività che mostrano come utilizzare Sensitive Data Protection con BigQuery.

Ispezione

Ispezione della capacità di archiviazione e dei database per l'individuazione di dati sensibili
Crea un job una tantum che cerca dati sensibili in un bucket Cloud Storage, una tabella BigQuery o un tipo Datastore.
Creazione e pianificazione dei job di ispezione di Sensitive Data Protection
Crea e pianifica un trigger di job che cerca dati sensibili in un bucket Cloud Storage, una tabella BigQuery o un tipo Datastore. Un trigger per un job automatizza la creazione di job di Sensitive Data Protection su base periodica.

Utilizzo dei risultati della scansione

Invio dei risultati della scansione di Sensitive Data Protection a Data Catalog
Scansiona una tabella BigQuery, quindi invia i risultati a Data Catalog per creare automaticamente tag in base ai risultati di Sensitive Data Protection.
Invio dei risultati della scansione di Sensitive Data Protection a Security Command Center
Scansiona un bucket Cloud Storage, una tabella BigQuery o un tipo Datastore, quindi invia i risultati a Security Command Center.
Analisi e reporting sui risultati di Sensitive Data Protection
Utilizzare BigQuery per eseguire l'analisi dei risultati di Sensitive Data Protection.
Esecuzione di query sui risultati di Sensitive Data Protection in BigQuery
Esamina le query di esempio che puoi utilizzare in BigQuery per analizzare i risultati identificati da Sensitive Data Protection.

Analisi del rischio di reidentificazione

Misurazione del rischio di reidentificazione e divulgazione

Analizza i dati strutturati archiviati in una tabella BigQuery e calcola le seguenti metriche del rischio di reidentificazione:

Calcolo delle statistiche numeriche e di classificazione

Determina i valori minimo, massimo e quantile per una singola colonna BigQuery.

Visualizzazione del rischio di reidentificazione utilizzando Looker Studio

Misura la k-anonimità di un set di dati e poi visualizzala in Looker Studio.

Tutorial

Anonimizza i dati BigQuery quando vengono eseguite le query
Segui un tutorial passo passo che utilizza le funzioni remote di BigQuery per anonimizzare e reidentificare i dati nei risultati delle query in tempo reale.
Anonimizzazione e reidentificazione delle PII in set di dati su larga scala utilizzando Sensitive Data Protection
Esamina un'architettura di riferimento per la creazione di una pipeline di trasformazione dei dati automatizzata che anonimizza i dati sensibili come le informazioni che consentono l'identificazione personale (PII).

Best practice

Proteggere un data warehouse BigQuery in cui sono archiviati dati riservati
Panoramica dell'architettura e best practice per la governance dei dati durante la creazione, l'implementazione e la gestione di un data warehouse in Google Cloud, inclusi deidentificazione dei dati, gestione differenziale dei dati riservati e controlli dell'accesso a livello di colonna.

Contributi della community

I seguenti elementi sono di proprietà e gestiti dai membri della community e non dal team di protezione dei dati sensibili. Per domande su questi elementi, contatta i rispettivi proprietari.

Creare tag Data Catalog ispezionando i dati BigQuery con Sensitive Data Protection
Ispeziona i dati BigQuery utilizzando l'API Cloud Data Loss Prevention, quindi utilizza l'API Data Catalog per creare tag a livello di colonna in base agli elementi sensibili trovati da Sensitive Data Protection.
Architettura di pianificazione serverless basata su eventi con Sensitive Data Protection
Configura un'applicazione di pianificazione serverless basata sugli eventi che utilizza l'API Cloud Data Loss Prevention per esaminare i dati BigQuery.
Rilevamento di anomalie in tempo reale mediante Google Cloud l'analisi dei flussi di dati e i servizi di AI
Esamina un pattern di intelligenza artificiale (AI) in tempo reale per rilevare anomalie nei file di log. Questa proof-of-concept utilizza Pub/Sub, Dataflow, BigQuery ML e Sensitive Data Protection.
Importazione di database relazionali in BigQuery con Dataflow e Sensitive Data Protection
Utilizza Dataflow e Sensitive Data Protection per tokenizzare e importare in modo sicuro i dati da un database relazionale in BigQuery. Questo esempio descrive come tokenizzare i dati PII prima che vengano resi permanenti.

Prezzi

Quando ispezioni una tabella BigQuery, sostieni i costi di Sensitive Data Protection, in base ai prezzi per i job di ispezione dell'archiviazione.

Inoltre, quando salvi i risultati dell'ispezione in una tabella BigQuery, si applicano gli addebiti di BigQuery.