Questa pagina ti guida su come installare e configurare la CLI gdcloud per gestire l'archiviazione di oggetti quando lavori con progetti air-gap di Google Distributed Cloud (GDC). Spiega come scaricare, installare e configurare i componenti e le impostazioni necessari per utilizzare in modo efficace i bucket e gli oggetti di archiviazione in questo ambiente isolato.
Questa pagina è rivolta a segmenti di pubblico come gli amministratori IT all'interno del gruppo di operatori dell'infrastruttura o gli sviluppatori all'interno del gruppo di operatori dell'applicazione che vogliono eseguire il provisioning e gestire i bucket di archiviazione degli oggetti per i progetti all'interno degli ambienti GDC air-gapped. Per saperne di più, consulta la documentazione relativa ai segmenti di pubblico per GDC air-gap.
Prepara gcloud CLI
Per utilizzare gcloud CLI, segui i passaggi riportati di seguito per scaricare, installare e configurare il pacchetto.
Scarica gcloud CLI
Per scaricare gcloud CLI, consulta la panoramica di gcloud CLI.
Installa gcloud CLI
Per utilizzare la struttura dei comandi di archiviazione, è necessario installare il componente delle dipendenze di archiviazione.
Segui le istruzioni riportate in Installa gcloud CLI.
Per installare il componente delle dipendenze di archiviazione, esegui i seguenti comandi:
gdcloud components install storage-cli-dependenciesPer ulteriori informazioni sul comando
components install, consulta Installa gcloud CLI.
Configura gcloud CLI per l'archiviazione di oggetti
Per utilizzare gcloud CLI per l'object storage, devono essere impostate le seguenti configurazioni.
Sostituisci
ACCESS_KEY_IDcon l'ID chiave di accesso ottenuto dal secret in Recupero delle credenziali di accesso:gdcloud config set storage/s3_access_key_id ACCESS_KEY_IDSostituisci
SECRET_ACCESS_KEYcon la chiave segreta ottenuta dal secret in Ottenere le credenziali di accesso:gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEYSostituisci
CA_BUNDLE_FILEcon il percorso del certificato CA:gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILESostituisci
ENDPOINTcon l'endpoint fornito dall'operatore dell'infrastruttura (IO):gdcloud config set storage/s3_endpoint ENDPOINTQuesto passaggio è leggermente diverso per i bucket a doppia zona. Ogni bucket a doppia zona fornisce tre endpoint che puoi scegliere per accedere al bucket. Nella maggior parte dei casi, l'endpoint globale è appropriato per sfruttare i failover automatici:
- Endpoint zona1: questo endpoint viene sempre ricevuto dalla zona1. Se utilizzi questo endpoint, hai una coerenza read-after-write per tutti gli oggetti scritti nella zona 1. Tuttavia, se la zona 1 non è disponibile, un client deve passare all'utilizzo dell'endpoint globale o della zona 2 per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno della zona 1.
- Endpoint Zone2: questo endpoint viene sempre ricevuto da Zone2. Se utilizzi questo endpoint, hai una coerenza di lettura dopo scrittura per tutti gli oggetti scritti in zona2. Tuttavia, se la zona 2 non funziona, un client deve passare all'utilizzo dell'endpoint della zona 1 o globale per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno della zona 2.
- Endpoint globale: questo endpoint comporta il routing della richiesta alla zona 1 o alla zona 2. Questa opzione non fornisce l'affinità sessione, il che significa che le richieste effettuate utilizzando la stessa sessione potrebbero arrivare nella zona 1 o nella zona 2. Ciò significa che non esiste alcuna garanzia di lettura dopo la scrittura per le richieste effettuate all'endpoint globale. L'endpoint globale fornisce il failover automatico nel caso in cui una zona non sia più disponibile, quindi gli utenti non dovranno modificare gli endpoint nei loro carichi di lavoro come dovrebbero fare se utilizzassero l'endpoint zonale. Inoltre, questo endpoint è accessibile dai cluster utente in tutte le zone.
Esegui i seguenti comandi per visualizzare gli endpoint globali/zonali per il bucket e scegli quello che vuoi utilizzare:
kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.globalEndpoint}" kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.zonalEndpoints}"