Questa guida descrive come creare un nuovo volume Kubernetes supportato dal driver CSI Managed Lustre in GKE con provisioning dinamico. Il driver CSI Managed Lustre consente di creare spazio di archiviazione supportato da istanze Managed Lustre on demand e di accedervi come volumi per i tuoi workload stateful.
Prima di iniziare
Prima di iniziare, assicurati di aver eseguito le seguenti operazioni:
- Attiva l'API Google Cloud Managed Lustre e l'API Google Kubernetes Engine. Abilita le API
- Se vuoi utilizzare Google Cloud CLI per questa attività,
installala e poi
inizializza
gcloud CLI. Se hai già installato gcloud CLI, scarica l'ultima
versione eseguendo il comando
gcloud components update
. Le versioni precedenti di gcloud CLI potrebbero non supportare l'esecuzione dei comandi in questo documento.
- Per limitazioni e requisiti, consulta la panoramica del driver CSI.
- Assicurati di abilitare il driver CSI Lustre gestito. È disabilitato per impostazione predefinita nei cluster Standard e Autopilot.
Imposta le variabili di ambiente
Imposta le seguenti variabili di ambiente:
export CLUSTER_NAME=CLUSTER_NAME
export PROJECT_ID=PROJECT_ID
export NETWORK_NAME=LUSTRE_NETWORK
export IP_RANGE_NAME=LUSTRE_IP_RANGE
export FIREWALL_RULE_NAME=LUSTRE_FIREWALL_RULE
export LOCATION=ZONE
export CLUSTER_VERSION=CLUSTER_VERSION
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del cluster.PROJECT_ID
: il tuo Google Cloud ID progetto.LUSTRE_NETWORK
: la rete Virtual Private Cloud (VPC) condivisa in cui si trovano sia il cluster GKE sia l'istanza Managed Lustre.LUSTRE_IP_RANGE
: il nome dell'intervallo di indirizzi IP creato per il peering di reti VPC con Managed Lustre.LUSTRE_FIREWALL_RULE
: il nome della regola firewall per consentire il traffico TCP dall'intervallo di indirizzi IP.ZONE
: la zona geografica del tuo cluster GKE; ad esempio,us-central1-a
.CLUSTER_VERSION
: la versione del cluster GKE.
Configura una rete VPC
Devi specificare la stessa rete VPC quando crei l'istanza Managed Lustre e i tuoi cluster GKE o connessi tramite Network Connectivity Center se utilizzi una rete VPC con peering.
Per abilitare il networking dei servizi, esegui questo comando:
gcloud services enable servicenetworking.googleapis.com \ --project=${PROJECT_ID}
Crea una rete VPC. L'impostazione del flag
--mtu
su8896
comporta un aumento del rendimento del 10%.gcloud compute networks create ${NETWORK_NAME} \ --subnet-mode=auto --project=${PROJECT_ID} \ --mtu=8896
Crea un intervallo di indirizzi IP.
gcloud compute addresses create ${IP_RANGE_NAME} \ --global \ --purpose=VPC_PEERING \ --prefix-length=20 \ --description="Managed Lustre VPC Peering" \ --network=${NETWORK_NAME} \ --project=${PROJECT_ID}
Ottieni l'intervallo CIDR associato all'intervallo che hai creato nel passaggio precedente.
CIDR_RANGE=$( gcloud compute addresses describe ${IP_RANGE_NAME} \ --global \ --format="value[separator=/](address, prefixLength)" \ --project=${PROJECT_ID} )
Crea una regola firewall per consentire il traffico TCP dall'intervallo di indirizzi IP che hai creato.
gcloud compute firewall-rules create ${FIREWALL_RULE_NAME} \ --allow=tcp:988,tcp:6988 \ --network=${NETWORK_NAME} \ --source-ranges=${CIDR_RANGE} \ --project=${PROJECT_ID}
Per configurare il peering di rete per il tuo progetto, verifica di disporre delle autorizzazioni IAM necessarie, in particolare del ruolo
compute.networkAdmin
oservicenetworking.networksAdmin
.- Vai alla Google Cloud console > IAM e amministrazione, quindi cerca l'entità proprietario del progetto.
- Fai clic sull'icona a forma di matita e poi su + AGGIUNGI UN ALTRO RUOLO.
- Seleziona Amministratore di rete Compute o Amministratore di Service Networking.
- Fai clic su Salva.
Connetti il peering.
gcloud services vpc-peerings connect \ --network=${NETWORK_NAME} \ --project=${PROJECT_ID} \ --ranges=${IP_RANGE_NAME} \ --service=servicenetworking.googleapis.com
Configura il driver CSI Managed Lustre
Questa sezione spiega come attivare e disattivare il driver CSI Lustre gestito, se necessario.
Porte di comunicazione Lustre
Il driver GKE Managed Lustre CSI utilizza porte diverse per la comunicazione con le istanze di Managed Lustre, a seconda della versione del cluster GKE e delle configurazioni di Managed Lustre esistenti.
Porta predefinita (consigliata): per i nuovi cluster GKE che eseguono la versione
1.33.2-gke.4780000
o successive, il driver utilizza la porta988
per la comunicazione Lustre per impostazione predefinita.Porta legacy:utilizza la porta
6988
aggiungendo il flag--enable-legacy-lustre-port
ai comandigcloud
nei seguenti scenari:- Versioni precedenti di GKE:se il tuo cluster GKE esegue una versione precedente alla
1.33.2-gke.4780000
, il flag--enable-legacy-lustre-port
risolve un conflitto di porte congke-metadata-server
sui nodi GKE. - Istanze Lustre esistenti:se ti connetti a un'istanza Managed Lustre esistente creata con il flag
gke-support-enabled
, devi comunque includere--enable-legacy-lustre-port
nei comandigcloud
, indipendentemente dalla versione del cluster. Senza questo flag, il cluster GKE non riuscirà a montare l'istanza Lustre esistente. Per informazioni sul flaggke-support-enabled
, consulta la descrizione dei flag facoltativi in Crea un'istanza.
- Versioni precedenti di GKE:se il tuo cluster GKE esegue una versione precedente alla
Puoi configurare i cluster nuovi ed esistenti in modo che utilizzino la porta predefinita 988
o la porta legacy 6988
.
Abilita il driver CSI di Managed Lustre su un nuovo cluster GKE
Le sezioni seguenti descrivono come abilitare il driver CSI Managed Lustre su un nuovo cluster GKE.
Utilizza la porta predefinita 988
Per abilitare il driver CSI Lustre gestito durante la creazione di un nuovo cluster GKE che esegue la versione 1.33.2-gke.4780000
o successive, esegui questo comando:
Autopilot
gcloud container clusters create-auto "${CLUSTER_NAME}" \
--location=${LOCATION} \
--network="${NETWORK_NAME}" \
--cluster-version=${CLUSTER_VERSION} \
--enable-lustre-csi-driver
Standard
gcloud container clusters create "${CLUSTER_NAME}" \
--location=${LOCATION} \
--network="${NETWORK_NAME}" \
--cluster-version=${CLUSTER_VERSION} \
--addons=LustreCsiDriver
Utilizza la porta legacy 6988
Per abilitare il driver CSI Lustre gestito quando crei un nuovo cluster GKE che esegue una versione precedente a 1.33.2-gke.4780000
, esegui il seguente comando:
Autopilot
gcloud container clusters create-auto "${CLUSTER_NAME}" \
--location=${LOCATION} \
--network="${NETWORK_NAME}" \
--cluster-version=${CLUSTER_VERSION} \
--enable-lustre-csi-driver \
--enable-legacy-lustre-port
Standard
gcloud container clusters create "${CLUSTER_NAME}" \
--location=${LOCATION} \
--network="${NETWORK_NAME}" \
--cluster-version=${CLUSTER_VERSION} \
--addons=LustreCsiDriver \
--enable-legacy-lustre-port
Abilita il driver CSI di Lustre gestito sui cluster GKE esistenti
Le sezioni seguenti descrivono come abilitare il driver CSI di Managed Lustre sui cluster GKE esistenti.
Utilizza la porta predefinita 988
Per abilitare il driver CSI di Managed Lustre su un cluster GKE esistente che esegue la versione 1.33.2-gke.4780000
o successive, esegui questo comando:
gcloud container clusters update ${CLUSTER_NAME} \
--location=${LOCATION} \
--update-addons=LustreCsiDriver=ENABLED
Utilizza la porta legacy 6988
Per abilitare il driver CSI di Lustre gestito su un cluster GKE esistente, potresti dover utilizzare la porta legacy 6988
aggiungendo il flag --enable-legacy-lustre-port
. Questo flag è obbligatorio nei seguenti scenari:
- Se il cluster GKE viene eseguito su una versione precedente a
1.33.2-gke.4780000
. Se intendi connettere questo cluster a un'istanza Managed Lustre esistente creata con il flag
gke-support-enabled
.gcloud container clusters update ${CLUSTER_NAME} \ --location=${LOCATION} \ --enable-legacy-lustre-port
Upgrade dei nodi richiesto sui cluster esistenti
L'abilitazione del driver CSI Lustre gestito sui cluster esistenti può attivare la ricreazione dei nodi per aggiornare i moduli del kernel necessari per il client Lustre gestito. Per una disponibilità immediata, ti consigliamo di eseguire manualmente l'upgrade dei pool di nodi.
I cluster GKE su un canale di rilascio vengono aggiornati in base all'implementazione pianificata, che può richiedere diverse settimane a seconda della finestra di manutenzione. Se utilizzi una versione GKE statica, devi eseguire l'upgrade manualmente dei tuoi node pool.
Dopo l'upgrade del pool di nodi, i nodi CPU potrebbero sembrare utilizzare un'immagine GPU nell'output della consoleGoogle Cloud o della CLI. Ad esempio:
config:
imageType: COS_CONTAINERD
nodeImageConfig:
image: gke-1330-gke1552000-cos-121-18867-90-4-c-nvda
Si tratta di un comportamento normale. L'immagine GPU viene riutilizzata sui nodi CPU per installare in modo sicuro i moduli del kernel Managed Lustre. Non ti verrà addebitato alcun costo per l'utilizzo della GPU.
Disabilita il driver CSI Lustre gestito
Puoi disattivare il driver CSI di Managed Lustre su un cluster GKE esistente utilizzando Google Cloud CLI.
gcloud container clusters update ${CLUSTER_NAME} \
--location=${LOCATION} \
--update-addons=LustreCsiDriver=DISABLED
Dopo la disattivazione del driver CSI, GKE ricrea automaticamente i nodi e disinstalla i moduli del kernel Managed Lustre.
Crea un nuovo volume utilizzando il driver CSI Lustre gestito
Le sezioni seguenti descrivono la procedura tipica per creare un volume Kubernetes supportato da un'istanza Managed Lustre in GKE:
- Crea una StorageClass.
- Usa un oggetto PersistentVolumeClaim per accedere al volume.
- Crea un workload che utilizzi il volume.
Crea una StorageClass
Quando il driver CSI Lustre gestito è abilitato, GKE crea automaticamente una StorageClass per il provisioning delle istanze Lustre gestite. StorageClass dipende dal livello di rendimento di Managed Lustre ed è uno dei seguenti:
lustre-rwx-125mbps-per-tib
lustre-rwx-250mbps-per-tib
lustre-rwx-500mbps-per-tib
lustre-rwx-1000mbps-per-tib
GKE fornisce una StorageClass predefinita per ogni livello di prestazioni Managed Lustre supportato. In questo modo viene semplificato il provisioning dinamico delle istanze Managed Lustre, in quanto puoi utilizzare le StorageClass integrate senza dover definire le tue.
Per i cluster a livello di zona, il driver CSI esegue il provisioning delle istanze di Managed Lustre nella stessa zona del cluster. Per i cluster regionali, esegue il provisioning dell'istanza in una delle zone all'interno della regione.
L'esempio seguente mostra come creare una StorageClass personalizzata con requisiti di topologia specifici:
Salva il seguente manifest in un file denominato
lustre-class.yaml
:apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: lustre-class provisioner: lustre.csi.storage.gke.io volumeBindingMode: Immediate reclaimPolicy: Delete parameters: perUnitStorageThroughput: "1000" network: LUSTRE_NETWORK allowedTopologies: - matchLabelExpressions: - key: topology.gke.io/zone values: - us-central1-a
Per l'elenco completo dei campi supportati in StorageClass, consulta la documentazione di riferimento del driver CSI Managed Lustre.
Crea StorageClass eseguendo questo comando:
kubectl apply -f lustre-class.yaml
Usa un oggetto PersistentVolumeClaim per accedere al volume
Questa sezione mostra come creare una risorsa PersistentVolumeClaim che fa riferimento alla StorageClass del driver CSI Managed Lustre.
Salva il seguente manifest in un file denominato
lustre-pvc.yaml
:apiVersion: v1 kind: PersistentVolumeClaim metadata: name: lustre-pvc spec: accessModes: - ReadWriteMany resources: requests: storage: 9000Gi storageClassName: lustre-class
Per l'elenco completo dei campi supportati in PersistentVolumeClaim, consulta la documentazione di riferimento del driver CSI Managed Lustre.
Crea l'oggetto PersistentVolumeClaim eseguendo questo comando:
kubectl apply -f lustre-pvc.yaml
Crea un carico di lavoro per utilizzare il volume
Questa sezione mostra un esempio di come creare un pod che utilizza la risorsa PersistentVolumeClaim creata in precedenza.
Più pod possono condividere la stessa risorsa PersistentVolumeClaim.
Salva il seguente manifest in un file denominato
my-pod.yaml
.apiVersion: v1 kind: Pod metadata: name: my-pod spec: containers: - name: nginx image: nginx volumeMounts: - name: lustre-volume mountPath: /data volumes: - name: lustre-volume persistentVolumeClaim: claimName: lustre-pvc
Applica il manifest al cluster.
kubectl apply -f my-pod.yaml
Verifica che il pod sia in esecuzione. Il pod viene eseguito dopo il provisioning di PersistentVolumeClaim. Il completamento di questa operazione potrebbe richiedere alcuni minuti.
kubectl get pods
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE my-pod 1/1 Running 0 11s
Utilizzare fsGroup con i volumi Managed Lustre
Puoi modificare la proprietà del gruppo della directory di livello radice del file system montato in modo che corrisponda a un fsGroup richiesto dall'utente specificato in SecurityContext del pod. fsGroup non modificherà in modo ricorsivo la proprietà dell'intero file system Managed Lustre montato; viene interessata solo la directory radice del punto di montaggio.
Risoluzione dei problemi
Per indicazioni sulla risoluzione dei problemi, consulta la pagina Risoluzione dei problemi nella documentazione di Managed Lustre.
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi, elimina le risorse di archiviazione che hai creato in questa guida.
Elimina il pod e PersistentVolumeClaim.
kubectl delete pod my-pod kubectl delete pvc lustre-pvc
Controlla lo stato di PersistentVolume.
kubectl get pv
L'output è simile al seguente:
No resources found
Potrebbero essere necessari alcuni minuti prima che l'istanza Managed Lustre sottostante venga eliminata completamente.