Installa e configura l'interfaccia a riga di comando dello storage

Questa pagina ti guida su come installare e configurare la CLI gdcloud per gestire l'archiviazione di oggetti quando lavori con progetti air-gap di Google Distributed Cloud (GDC). Spiega come scaricare, installare e configurare i componenti e le impostazioni necessari per utilizzare in modo efficace i bucket e gli oggetti di archiviazione in questo ambiente isolato.

Questa pagina è rivolta a segmenti di pubblico come gli amministratori IT all'interno del gruppo di operatori dell'infrastruttura o gli sviluppatori all'interno del gruppo di operatori dell'applicazione che vogliono eseguire il provisioning e gestire i bucket di archiviazione degli oggetti per i progetti all'interno degli ambienti GDC air-gapped. Per saperne di più, consulta la documentazione relativa ai segmenti di pubblico per GDC air-gap.

Prepara gcloud CLI

Per utilizzare gcloud CLI, segui i passaggi riportati di seguito per scaricare, installare e configurare il pacchetto.

Scarica gcloud CLI

Per scaricare gcloud CLI, consulta la panoramica di gcloud CLI.

Installa gcloud CLI

Per utilizzare la struttura dei comandi di archiviazione, è necessario installare il componente delle dipendenze di archiviazione.

  1. Segui le istruzioni riportate in Installa gcloud CLI.

  2. Per installare il componente delle dipendenze di archiviazione, esegui i seguenti comandi:

    gdcloud components install storage-cli-dependencies
    

    Per ulteriori informazioni sul comando components install, consulta Installa gcloud CLI.

Configura gcloud CLI per l'archiviazione di oggetti

Per utilizzare gcloud CLI per l'object storage, devono essere impostate le seguenti configurazioni.

  1. Sostituisci ACCESS_KEY_ID con l'ID chiave di accesso ottenuto dal secret in Recupero delle credenziali di accesso:

    gdcloud config set storage/s3_access_key_id ACCESS_KEY_ID
    
  2. Sostituisci SECRET_ACCESS_KEY con la chiave segreta ottenuta dal secret in Ottenere le credenziali di accesso:

    gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEY
    
  3. Sostituisci CA_BUNDLE_FILE con il percorso del certificato CA:

    gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILE
    
  4. Sostituisci ENDPOINT con l'endpoint fornito dall'operatore dell'infrastruttura (IO):

    gdcloud config set storage/s3_endpoint ENDPOINT
    

    Questo passaggio è leggermente diverso per i bucket a doppia zona. Ogni bucket a doppia zona fornisce tre endpoint che puoi scegliere per accedere al bucket. Nella maggior parte dei casi, l'endpoint globale è appropriato per sfruttare i failover automatici:

    • Endpoint zona1: questo endpoint viene sempre ricevuto dalla zona1. Se utilizzi questo endpoint, hai una coerenza read-after-write per tutti gli oggetti scritti nella zona 1. Tuttavia, se la zona 1 non è disponibile, un client deve passare all'utilizzo dell'endpoint globale o della zona 2 per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno della zona 1.
    • Endpoint Zone2: questo endpoint viene sempre ricevuto da Zone2. Se utilizzi questo endpoint, hai una coerenza di lettura dopo scrittura per tutti gli oggetti scritti in zona2. Tuttavia, se la zona 2 non funziona, un client deve passare all'utilizzo dell'endpoint della zona 1 o globale per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno della zona 2.
    • Endpoint globale: questo endpoint comporta il routing della richiesta alla zona 1 o alla zona 2. Questa opzione non fornisce l'affinità sessione, il che significa che le richieste effettuate utilizzando la stessa sessione potrebbero arrivare nella zona 1 o nella zona 2. Ciò significa che non esiste alcuna garanzia di lettura dopo la scrittura per le richieste effettuate all'endpoint globale. L'endpoint globale fornisce il failover automatico nel caso in cui una zona non sia più disponibile, quindi gli utenti non dovranno modificare gli endpoint nei loro carichi di lavoro come dovrebbero fare se utilizzassero l'endpoint zonale. Inoltre, questo endpoint è accessibile dai cluster utente in tutte le zone.

    Esegui i seguenti comandi per visualizzare gli endpoint globali/zonali per il bucket e scegli quello che vuoi utilizzare:

    kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.globalEndpoint}"
    
    kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.zonalEndpoints}"