É possível solicitar dispositivos de maneira flexível para suas cargas de trabalho do Google Kubernetes Engine (GKE) usando a alocação dinâmica de recursos (DRA). Neste documento, mostramos como criar um ResourceClaimTemplate para solicitar dispositivos em pools de nós no cluster e, em seguida, criar uma carga de trabalho para observar como o Kubernetes aloca os dispositivos de maneira flexível aos seus pods.
Este documento é destinado a operadores de aplicativos e engenheiros de dados que executam cargas de trabalho como IA/ML ou computação de alto desempenho (HPC).
Sobre como solicitar dispositivos com a DRA
Ao configurar a infraestrutura do GKE para DRA, os drivers DRA nos nós criam objetos DeviceClass no cluster. Uma DeviceClass define uma categoria de dispositivos, como GPUs, que estão disponíveis para solicitação de cargas de trabalho. Um administrador de plataforma pode implantar DeviceClasses adicionais que limitam os dispositivos que você pode solicitar em cargas de trabalho específicas.
Para solicitar dispositivos em uma DeviceClass, crie um dos seguintes objetos:
- ResourceClaim: um ResourceClaim permite que um pod ou um usuário solicite recursos de hardware filtrando determinados parâmetros em uma DeviceClass.
- ResourceClaimTemplate: define um modelo que os pods podem usar para criar automaticamente novos ResourceClaims por pod.
Para mais informações sobre ResourceClaims e ResourceClaimTemplates, consulte Quando usar ResourceClaims e ResourceClaimTemplates.
Os exemplos neste documento usam um ResourceClaimTemplate básico para solicitar a configuração de dispositivo especificada. Para mais informações sobre todos os campos que podem ser especificados, consulte a referência da API ResourceClaimTemplate.
Limitações
Considere as seguintes limitações:
- Limitações do DRA no GKE
- Limitações específicas do dispositivo, que se aplicam independente de você usar DRA: Cargas de trabalho de GPU em clusters Standard
Antes de começar
Antes de começar, verifique se você realizou as tarefas a seguir:
- Ative a API Google Kubernetes Engine. Ativar a API Google Kubernetes Engine
- Se você quiser usar a CLI do Google Cloud para essa tarefa,
instale e inicialize a
gcloud CLI. Se você instalou a gcloud CLI anteriormente, instale a versão
mais recente executando o comando
gcloud components update. Talvez as versões anteriores da gcloud CLI não sejam compatíveis com a execução dos comandos neste documento.
- Verifique se os clusters do GKE estão configurados para cargas de trabalho do DRA.
Reivindicar dispositivos e implantar cargas de trabalho
Para solicitar a alocação de dispositivos por pod, crie um ResourceClaimTemplate que tenha a configuração de dispositivo solicitada, como GPUs de um tipo específico. Quando você implanta uma carga de trabalho que faz referência ao ResourceClaimTemplate, o Kubernetes cria ResourceClaims para cada pod na carga de trabalho com base no ResourceClaimTemplate. O Kubernetes aloca os recursos solicitados e programa os pods nos nós correspondentes.
Para solicitar GPUs em uma carga de trabalho com DRA, siga estas etapas:
Salve o seguinte manifesto como
gpu-claim-template.yaml:apiVersion: resource.k8s.io/v1 kind: ResourceClaimTemplate metadata: name: gpu-claim-template spec: spec: devices: requests: - name: single-gpu exactly: deviceClassName: gpu.nvidia.com allocationMode: ExactCount count: 1Crie o ResourceClaimTemplate:
kubectl create -f gpu-claim-template.yamlPara criar uma carga de trabalho que faça referência ao ResourceClaimTemplate, salve o manifesto a seguir como
dra-gpu-example.yaml:apiVersion: apps/v1 kind: Deployment metadata: name: dra-gpu-example spec: replicas: 1 selector: matchLabels: app: dra-gpu-example template: metadata: labels: app: dra-gpu-example spec: containers: - name: ctr image: ubuntu:22.04 command: ["bash", "-c"] args: ["echo $(nvidia-smi -L || echo Waiting...); sleep infinity"] resources: claims: - name: single-gpu resourceClaims: - name: single-gpu resourceClaimTemplateName: gpu-claim-template tolerations: - key: "nvidia.com/gpu" operator: "Exists" effect: "NoSchedule"Implantar a carga de trabalho:
kubectl create -f dra-gpu-example.yaml
Verificar a alocação de hardware
Para verificar se as cargas de trabalho receberam hardware, confira o ResourceClaim ou os registros do pod. Para verificar a alocação, siga estas etapas:
Receba o ResourceClaim associado à carga de trabalho implantada:
kubectl get resourceclaimsO resultado será o seguinte:
NAME STATE AGE dra-gpu-example-64b75dc6b-x8bd6-single-gpu-jwwdh allocated,reserved 9sConfira mais detalhes sobre o hardware atribuído ao pod:
kubectl describe resourceclaims RESOURCECLAIMSubstitua
RESOURCECLAIMpelo nome completo do ResourceClaim que você recebeu da saída da etapa anterior.O resultado será o seguinte:
Name: dra-gpu-example-68f595d7dc-prv27-single-gpu-qgjq5 Namespace: default Labels: <none> Annotations: resource.kubernetes.io/pod-claim-name: single-gpu API Version: resource.k8s.io/v1 Kind: ResourceClaim Metadata: # Multiple lines are omitted here. Spec: Devices: Requests: Exactly: Allocation Mode: ExactCount Count: 1 Device Class Name: gpu.nvidia.com Name: single-gpu Status: Allocation: Devices: Results: Device: gpu-0 Driver: gpu.nvidia.com Pool: gke-cluster-1-dra-gpu-pool-b56c4961-7vnm Request: single-gpu Node Selector: Node Selector Terms: Match Fields: Key: metadata.name Operator: In Values: gke-cluster-1-dra-gpu-pool-b56c4961-7vnm Reserved For: Name: dra-gpu-example-68f595d7dc-prv27 Resource: pods UID: e16c2813-08ef-411b-8d92-a72f27ebf5ef Events: <none>Acesse os registros da carga de trabalho implantada:
kubectl logs deployment/dra-gpu-example --all-pods=trueO resultado será o seguinte:
[pod/dra-gpu-example-64b75dc6b-x8bd6/ctr] GPU 0: Tesla T4 (UUID: GPU-2087ac7a-f781-8cd7-eb6b-b00943cc13ef)Essa saída indica que o GKE alocou uma GPU ao contêiner.