Risorse disponibili per i carichi di lavoro

Questa pagina mostra come determinare la quantità di CPU e memoria disponibile su un nodo per eseguire i carichi di lavoro su Google Distributed Cloud.

Risorse riservate

Su ogni nodo del cluster, Google Distributed Cloud riserva le seguenti risorse per i componenti del sistema operativo e i componenti principali di Kubernetes:

  • 80 millicore + 1% della capacità della CPU
  • 330 MiB + 5% della capacità di memoria

Ad esempio, supponiamo che un nodo abbia la capacità predefinita di 4 core CPU e 8 GiB di memoria. Poi Google Distributed Cloud riserva:

  • 80 millicore + 1% di 4 core = 120 millicore
  • 330 MiB + 5% di 8 GiB = 730 MiB

Il sistema operativo e i componenti principali di Kubernetes non vengono eseguiti come pod, ma come processi ordinari. Le risorse rimanenti, oltre a quelle riservate, sono disponibili per i pod.

Soglia di sfratto

Per determinare la quantità di memoria disponibile per i pod, devi anche considerare la soglia di espulsione. Google Distributed Cloud imposta una soglia di sfratto di 100 MiB. Ciò significa che se la memoria disponibile su un nodo scende al di sotto di 100 MiB, kubelet potrebbe eliminare uno o più pod.

Risorse allocabili

Le risorse di un nodo disponibili per i pod sono chiamate risorse allocabili. Calcola le risorse allocabili nel seguente modo:

  • Allocatable CPU = CPU Capacity - Reserved CPU
  • Allocatable Memory = Memory Capacity - Reserved Memory - Eviction Threshold

Ad esempio, supponiamo che un nodo abbia 8 GiB di capacità di memoria, 680 MiB di memoria riservata e una soglia di espulsione di 100 MiB. La memoria allocabile è:

8 GiB - 680 MiB - 100 MiB = 7220 MiB

Risorse disponibili per i carichi di lavoro

Le risorse allocabili di un nodo sono le risorse disponibili per i pod. Sono inclusi i pod che eseguono i carichi di lavoro e i pod che eseguono i componenti aggiuntivi di Google Distributed Cloud. I componenti aggiuntivi includono il controller Ingress, il servizio Ingress, l'agente Connect, i componenti di networking, i componenti di logging e altro ancora.

Su un determinato nodo, per determinare le risorse disponibili per i carichi di lavoro, inizia con le risorse allocabili e poi sottrai le risorse utilizzate dagli componenti aggiuntivi.

La sfida è che i componenti aggiuntivi non sono distribuiti in modo uniforme tra i nodi di un cluster Google Distributed Cloud. Un nodo potrebbe avere tre componenti aggiuntivi, mentre un altro potrebbe averne dieci. Inoltre, i vari componenti aggiuntivi richiedono quantità diverse di CPU e memoria.

Come regola generale, puoi calcolare che i componenti aggiuntivi in esecuzione su un nodo richiedono:

  • 200 millicore di CPU
  • 100 MiB di memoria

Ora puoi calcolare le risorse disponibili su un nodo per i tuoi carichi di lavoro come segue:

  • Allocatable CPU - 200 millicores
  • Allocatable memory - 100 MiB

Alcuni nodi richiedono più risorse per i componenti aggiuntivi rispetto a quanto indicato dalla regola generale precedente. Ad esempio, un nodo potrebbe eseguire un componente aggiuntivo Prometheus che richiede 2 GiB di memoria. Tuttavia, se il cluster ha più di qualche nodo, è ragionevole supporre che la regola generale si applichi alla maggior parte dei nodi.

Passaggi successivi

Per saperne di più sul concetto di risorse allocabili, consulta la sezione Risorse allocabili nella documentazione di GKE su Google Cloud.