Importare da un file di dump

Prima di importare i dati, devi:

  1. Crea un cluster di database in cui importare i dati.

  2. Carica il file di dump in un bucket di archiviazione. Per istruzioni, consulta Caricare oggetti nei bucket di archiviazione.

  3. Concedi all'account di servizio di importazione del servizio di database l'accesso in lettura al file di dump. Consulta Concedere e ottenere l'accesso allo spazio di archiviazione. L'account di servizio si chiama postgresql-import-DATABASE_CLUSTER_NAME o oracle-import-DATABASE_CLUSTER_NAME, a seconda del tipo di database che stai importando.

    Sostituisci DATABASE_CLUSTER_NAME con il nome del cluster di database in cui stai importando i dati.

Puoi importare un file di dump in un cluster di database utilizzando la console GDC o Distributed Cloud CLI:

Console

  1. Apri la pagina Panoramica del cluster di database nella console GDC per visualizzare il cluster che contiene il database che stai importando.

  2. Fai clic su Importa. Viene visualizzato il riquadro Importa dati negli account.

  3. Nella sezione Origine del riquadro Importa dati negli account, specifica la posizione del file di dump dei dati SQL che hai caricato in precedenza.

  4. Nel campo Destinazione, specifica un database di destinazione esistente per l'importazione.

  5. Fai clic su Importa. Un banner nella console GDC mostra lo stato dell'importazione.

gcloud CLI

  1. Prima di utilizzare Distributed Cloud CLI, installala e inizializzala. Poi, autenticati con la tua organizzazione.

  2. Esegui questo comando per importare un file di dump in un database:

    gdcloud database import sql DATABASE_CLUSTER BUCKET_NAME/sample.dmp \
        --project=PROJECT_NAME
    

    Sostituisci quanto segue:

    • DATABASE_CLUSTER con il nome del cluster di database in cui importare i dati.
    • BUCKET_NAME/SAMPLE.dmp con la posizione del file di dump.
    • PROJECT_NAME con il nome del progetto in cui si trova il cluster di database.

API

apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
  name: IMPORT_NAME
  namespace: USER_PROJECT
spec:
  dbclusterRef: DBCLUSTER_NAME
  dumpStorage:
    s3Options:
      bucket: BUCKET_NAME
      key: DUMP_FILE_PATH
    type: S3

Sostituisci le seguenti variabili:

  • DBENGINE_NAME: il nome del motore del database. Uno dei valori alloydbomni, postgresql o oracle.
  • IMPORT_NAME: il nome dell'operazione di importazione.
  • USER_PROJECT: il nome del progetto utente in cui viene creato il cluster di database da importare.
  • DBCLUSTER_NAME: il nome del cluster di database.
  • BUCKET_NAME: il nome del bucket di archiviazione degli oggetti che memorizza i file di importazione.
  • DUMP_FILE_PATH: il nome del percorso di archiviazione degli oggetti ai file archiviati.