Immagini sistema operativo e Docker

Google Cloud fornisce immagini che contengono sistemi operativi, framework, librerie e driver comuni. Google Cloud ottimizza queste immagini preconfigurate per supportare i tuoi workload di intelligenza artificiale (AI) e machine learning (ML).

Questo documento fornisce una panoramica delle immagini che utilizzi per eseguire il deployment, gestire ed eseguire i carichi di lavoro nel tuo ambiente AI Hypercomputer.

Informazioni sulle categorie di immagini

Le immagini sono raggruppate nelle seguenti categorie:

  • Framework e librerie AI e ML: immagini Docker preconfigurate con file binari per framework e librerie ML per semplificare la creazione, l'addestramento e l'utilizzo di modelli ML. Su AI Hypercomputer, puoi utilizzare le immagini Docker del livello software di deep learning (DLSL) per eseguire modelli di ML come NeMO e MaxText su un cluster Google Kubernetes Engine (GKE).
  • Deployment e orchestrazione del cluster: immagini del sistema operativo (OS) che utilizzi per eseguire il deployment e gestire l'infrastruttura ottimizzata per il rendimento su cui vengono eseguiti i tuoi workload di AI. Puoi eseguire il deployment dei tuoi workload di AI su cluster GKE, cluster Slurm o istanze Compute Engine. Per ulteriori informazioni, consulta Panoramica della creazione di VM e cluster. Per il deployment di cluster o istanze sono disponibili le seguenti immagini del sistema operativo:

Framework e librerie AI e ML

Google Cloud fornisce immagini Docker che includono framework e librerie di AI e ML più diffusi. Queste immagini forniscono il software necessario per semplificare lo sviluppo, l'addestramento e il deployment di modelli nei cluster ottimizzati per l'AI in esecuzione su AI Hypercomputer.

Immagini AI JAX

Le immagini AI JAX (JAII, precedentemente note come immagini JAX Stable Stack) per TPU e GPU offrono immagini Docker pronte all'uso che contengono il framework JAX, una raccolta curata di librerie compatibili e impostazioni per l'infrastruttura Google Cloud .Google Cloud Le immagini JAX AI TPU sono preconfigurate con le librerie JAX e le librerie TPU. Le immagini JAX AI GPU sono preconfigurate con le librerie JAX e le librerie CUDA/NVIDIA pertinenti.

Diagramma dell'immagine AI JAX

Livello hardware

Le immagini AI JAX si trovano sopra il livello hardware, costituito dagli acceleratori (TPU o GPU) e dalle VM associate. Per utilizzare un'immagine JAX AI, devi eseguire il provisioning di VM TPU o GPU. Puoi farlo utilizzando l'API TPU, l'API Compute Engine o l'API GKE.

Il livello del framework

Il livello del framework fornisce strumenti e librerie per la creazione di carichi di lavoro ML. Le immagini AI JAX forniscono una base preconfigurata per i carichi di lavoro ML basati su JAX, tra cui la libreria JAX principale e altre dipendenze essenziali, per garantire un'esperienza di sviluppo coerente e ad alte prestazioni.

Il livello LibTPU nell'immagine AI JAX è creato e raggruppato in modo specifico con la rispettiva versione di JAX. L'utilizzo di una versione diversa di JAX potrebbe causare comportamenti o errori imprevisti.

Il livello CUDA nell'immagine JAX AI include componenti gestiti da NVIDIA, ad esempio l'immagine NGC CUDA Deep Learning, utilizzata come immagine di base dell'immagine di addestramento GPU. L'immagine GPU contiene anche Transformer Engine, una libreria NVIDIA personalizzata per accelerare i modelli Transformer sulle GPU NVIDIA.

Per il tuo specifico workload di machine learning potrebbero essere necessari pacchetti aggiuntivi specifici per l'applicazione, oltre a quelli forniti nell'immagine JAX AI.

Librerie in JAX AI Images:

Immagini TPU

Funzionalità Nome pacchetto
Librerie o componenti principali
Framework ML JAX e JAX lib
LibTPU Release stabile di Cloud LibTPU
Libreria di livelli/modelli Lino
Checkpoint Orbax
Quantizzazione Qwix
Ottimizzatori Optax

aqtp

Kernel personalizzati Tokamax
Configurazione Fiddle
Pipeline di input tf.data

PyGrain array-record

Profilazione, debug Tensorboard
Utils Common loop utils

Misurazione del goodput ML Raccolte ML

Strumenti specifici per il cloud
Google Cloud

Google Cloud SDK Google Cloud storage

Diagnostica

Diagnostica dell'acceleratore cloud Diagnostica Cloud TPU

Immagini GPU

Funzionalità Nome pacchetto
Librerie o componenti principali
Framework ML JAX e JAX lib
Librerie NVIDIA CUDA Immagine CUDA DL
Libreria di livelli/modelli Lino
Checkpoint Orbax
Ottimizzatori

Optax aqtp TransformerEngine

Configurazione Fiddle
Pipeline di input

tf.data PyGrain array-record

Profilazione, debug Tensorboard
Utils

Common loop utils Misurazione del goodput ML Raccolte ML

Strumenti specifici per il cloud
Google Cloud

Google Cloud SDK Google Cloud storage

Diagnostica Cloud Accelerator Diagnostics

Immagini AI JAX attuali

Immagini TPU

Immagine AI JAX Data di uscita
JAX 0.9.0 Revisione 1 2026-02-03
JAX 0.8.2 Revisione 1 2026-01-14
JAX 0.8.1 Revisione 1 2025-11-21
JAX 0.8.0 Revisione 1 2025-10-28
JAX 0.7.2 Revisione 1 2025-09-30
JAX 0.7.0 Revisione 1 2025-07-29
JAX 0.6.1 Revisione 1 2025-06-05
JAX 0.5.2 Revisione 2 2025-04-25
JAX 0.5.2 Revisione 1 2025-03-17
JAX 0.4.37 Revisione 1 2024-12-12
JAX 0.4.35 Revisione 1 2024-10-30

Immagini GPU

Immagine AI JAX Data di uscita
JAX 0.7.2 con CUDA DL 25.06 Revisione 1 2025-09-30
JAX 0.6.1 con CUDA DL 25.03 Revisione 1 2025-06-05
JAX 0.5.1 con CUDA DL 25.02 Revisione 1 2025-03-17

Livello di applicazione

Implementi i tuoi carichi di lavoro ML specifici nel livello dell'applicazione, che si trova sopra il livello del framework. Il livello applicazione contiene il codice, i modelli e la logica specifici dell'applicazione, tutti creati utilizzando gli strumenti e le librerie forniti dal livello framework.

Sebbene questa immagine fornisca una base solida e ben testata per i carichi di lavoro di AI basati su JAX, potresti dover aggiungere dipendenze specifiche dell'applicazione. In questo caso, ti consigliamo di farlo in modo da ridurre al minimo le interferenze con il livello di base preconfigurato, che include JAX e le relative dipendenze principali. L'introduzione di dipendenze a livello di applicazione che sostituiscono o sono in conflitto con le dipendenze esistenti può causare effetti collaterali quali:

  • Comportamenti imprevisti: i carichi di lavoro di ML potrebbero presentare un comportamento diverso rispetto a prima dell'introduzione di dipendenze aggiuntive nell'immagine AI JAX.
  • Regressioni delle prestazioni: l'override delle librerie ottimizzate correlate a JAX può influire negativamente sui vantaggi in termini di prestazioni forniti dall'immagine AI JAX
  • Problemi di stabilità: i conflitti tra le dipendenze aggiunte e le dipendenze JAX di base possono causare instabilità ed errori di runtime all'interno dell'applicazione.

Cadenza di rilascio

Inizialmente, le immagini AI JAX vengono fornite trimestralmente con l'obiettivo a breve termine di un programma di rilascio sincronizzato con ogni release di JAX. In questo modo, potrai usufruire delle funzionalità e dei miglioramenti più recenti non appena sono disponibili.

Assistenza

Ogni release di immagini AI JAX rispetta un ciclo di vita di assistenza a tempo limitato. Entro questo periodo di tempo, rispondiamo a categorie specifiche di richieste di modifiche alle immagini AI JAX esistenti:

  • Vulnerabilità della sicurezza: diamo la priorità alla risoluzione delle vulnerabilità della sicurezza rilevate nelle immagini di base o nelle dipendenze delle immagini Docker JAX Stable Stack. Le immagini aggiornate verranno rilasciate per mitigare i potenziali rischi.
  • Modifiche che causano interruzioni: in caso di modifiche che causano interruzioni significative nelle librerie o nei framework sottostanti utilizzati da JAX AI image, Google Cloud valuta e implementa gli aggiornamenti necessari per mantenere la compatibilità. Potrebbe essere necessario ricompilare le immagini Docker con le dipendenze aggiornate.

Quando viene rilevata una vulnerabilità della sicurezza o un bug in una libreria all'interno di un intent integrato di Android, incorporiamo la libreria aggiornata nell'intent integrato di Android, bloccando tutte le altre versioni della libreria per mantenere la stabilità complessiva. Il risultato è una nuova revisione di JAII.

Modifica minima per le revisioni:

Se viene trovato un bug nel pacchetto "X" all'interno di JAX-0.4.30-rev1, aggiorneremo "X" alla versione successiva (ad esempio, v2.0) cercando di mantenere invariati tutti gli altri pacchetti. Il risultato è una nuova revisione: JAX-0.4.30-rev2, che verrà rilasciata il prima possibile.

Immagini Docker del livello software di deep learning (DLSL)

Queste immagini includono NVIDIA CUDA, NCCL, un framework di ML e un modello. Forniscono un ambiente pronto all'uso per i carichi di lavoro di deep learning. Queste immagini Docker DLSL predefinite funzionano perfettamente con i tuoi cluster GKE perché le testiamo e verifichiamo durante i test di regressione e riproducibilità interni.

Le immagini Docker DLSL offrono i seguenti vantaggi:

  • Software preconfigurato: le immagini Docker DLSL replicano la configurazione utilizzata per i test di riproducibilità e regressione interni. Queste immagini forniscono un ambiente preconfigurato, testato e ottimizzato, il che consente di risparmiare tempo e impegno significativi in termini di installazione e configurazione.
  • Gestione delle versioni: le immagini Docker DLSL vengono aggiornate di frequente. Questi aggiornamenti della versione forniscono l'ultima versione stabile di framework e driver e includono anche patch di sicurezza.
  • Compatibilità dell'infrastruttura: le immagini Docker DLSL sono create e testate per funzionare perfettamente con i tipi di macchine GPU disponibili su AI Hypercomputer.
  • Istruzioni per la guida rapida: alcune immagini Docker DLSL sono accompagnate da ricette di esempio che mostrano come avviare i workload che utilizzano le immagini preconfigurate.

NeMo + PyTorch + plug-in NCCL gIB

Queste immagini Docker si basano sull'immagine NVIDIA NeMo NGC. Contengono il plug-in gIB NCCL di Google e raggruppano tutti i file binari NCCL necessari per eseguire i carichi di lavoro su ogni macchina acceleratore supportata. Queste immagini includono anche strumenti Google Cloud come gcsfuse e la CLI gcloud per il deployment dei carichi di lavoro in Google Kubernetes Engine.

Versione immagine DLSL Versione delle dipendenze Serie di macchine Data di uscita Data di fine del supporto Nome immagine DLSL
nemo25.04-gib1.0.6-A4
  • NeMo NGC:25.04.01
  • NCCL giB plugin: 1.0.6
A4 3 luglio 2025 3 luglio 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo25.04-gib1.0.6-A4
nemo25.04-gib1.0.6-A3U
  • NeMo NGC:25.04.01
  • NCCL giB plugin: 1.0.6
A3 Ultra 3 luglio 2025 3 luglio 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo25.04-gib1.0.6-A3U
nemo25.02-gib1.0.5-A4
  • NeMo NGC:25.02
  • NCCL giB plugin: 1.0.5
A4 14 marzo 2025 14 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo25.02-gib1.0.5-A4
nemo24.07-gib1.0.2-A3U
  • NeMo NGC:24.07
  • NCCL giB plugin: 1.0.2
A3 Ultra 2 febbraio 2025 2 febbraio 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo24.07-gib1.0.2-A3U
nemo24.07-gib1.0.3-A3U
  • NeMo NGC:24.07
  • NCCL giB plugin: 1.0.3
A3 Ultra 2 febbraio 2025 2 febbraio 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo24.07-gib1.0.3-A3U
nemo24.12-gib1.0.3-A3U
  • NeMo NGC:24.12
  • NCCL giB plugin: 1.0.3
A3 Ultra 7 febbraio 2025 7 febbraio 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo24.12-gib1.0.3-A3U
nemo24.07-tcpx1.0.5-A3Mega
  • NeMo NGC:24.07
  • GPUDirect-TCPX: 1.0.5
A3 Mega 12 marzo 2025 12 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo24.07-tcpx1.0.5-A3Mega
nemo24.07-tcpx1.0.5-A3High
  • NeMo NGC:24.07
  • GPUDirect-TCPX: 1.0.5
A3 High (8 GPU) 12 marzo 2025 12 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo-nccl:nemo24.07-tcpx1.0.5-A3High

NeMo + PyTorch

Questa immagine Docker si basa sull'immagine NVIDIA NeMo NGC e include Google Cloud strumenti come gcsfuse e interfaccia a riga di comando gcloud per il deployment dei carichi di lavoro su Google Kubernetes Engine.

Versione immagine DLSL Versione delle dipendenze Serie di macchine Data di uscita Data di fine del supporto Nome immagine DLSL
nemo24.07--A3U NeMo NGC:24.07 A3 Ultra 19 dicembre 2024 19 dicembre 2025 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo:nemo24.07-A3U
nemo24.07-tcpx1.0.5-A3Mega
  • NeMo NGC:24.07
  • GPUDirect-TCPX: 1.0.5
A3 Mega 12 marzo 2025 12 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo:nemo24.07-tcpx1.0.5-A3Mega
nemo24.07-tcpx1.0.5-A3High
  • NeMo NGC:24.07
  • GPUDirect-TCPX: 1.0.5
A3 High (8 GPU) 12 marzo 2025 12 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/pytorch-gpu-nemo:nemo24.07-tcpx1.0.5-A3High

MaxText + JAX toolbox

Questa immagine Docker si basa sull'immagine NVIDIA JAX toolbox e include strumentiGoogle Cloud come gcsfuse e gcloud CLI per il deployment dei carichi di lavoro in Google Kubernetes Engine.

Versione immagine DLSL Versione delle dipendenze Serie di macchine Data di uscita Data di fine del supporto Nome immagine DLSL
toolbox-maxtext-2025-01-10-A3U JAX toolbox: maxtext-2025-01-10 A3 Ultra 11 marzo 2025 11 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/jax-maxtext-gpu:toolbox-maxtext-2025-01-10-A3U
jax0.5.1-cu12-A3Mega
  • JAX: 0.5.1
  • CUDA: 12.x
  • MaxText: Latest
A3 Mega 17 marzo 2025 17 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/jax-gpu-maxtext:jax0.5.1-cu12-A3Mega
jax0.5.1-cu12-A3High
  • JAX: 0.5.1
  • CUDA: 12.x
  • MaxText: Latest
A3 High (8 GPU) 17 marzo 2025 17 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/jax-gpu-maxtext:jax0.5.1-cu12-A3High

MaxText + stack stabile JAX

Questa immagine Docker si basa sullo stack stabile JAX e su MaxText. Questa immagine include anche dipendenze come dnsutils per l'esecuzione di carichi di lavoro su Google Kubernetes Engine.

Versione immagine DLSL Versione delle dipendenze Serie di macchine Data di uscita Data di fine del supporto Nome immagine DLSL
jax-maxtext-gpu:jax0.5.1-cuda_dl25.02-rev1-maxtext-20150317
  • JAX Stable stacks:jax0.5.1-cuda_dl25.02-rev1
  • maxtext commit: 54e98c9e62caa426cf5902be068533ddb4fb79f5
A4 17 marzo 2025 17 marzo 2026 us-central1-docker.pkg.dev/deeplearning-images/reproducibility/jax-maxtext-gpu:jax0.5.1-cuda_dl25.02-rev1-maxtext-20150317

Deployment e orchestrazione del cluster

Le immagini del sistema operativo includono tutti i componenti software necessari per eseguire il deployment di un sistema operativo su un'istanza di calcolo o un nodo GKE. Il sistema operativo gestisce le risorse hardware sottostanti, come gli acceleratori e la rete. Fornisce le risorse di calcolo per il tuo workload AI.

Immagini dei nodi GKE

GKE esegue il deployment dei cluster utilizzando le immagini dei nodi. Queste immagini dei nodi sono disponibili per vari sistemi operativi come Container-Optimized OS, Ubuntu e Windows Server. Le immagini dei nodi Container-Optimized OS con containerd (cos_containerd) che devi utilizzare per il deployment dei cluster GKE Autopilot includono ottimizzazioni per supportare i tuoi carichi di lavoro di AI e ML.

Per saperne di più su queste immagini dei nodi, consulta la sezione Immagini dei nodi.

Immagini sistema operativo Slurm

I cluster Slurm eseguono il deployment dei nodi di calcolo e controller come istanze di calcolo su Compute Engine.

Per eseguire il provisioning dei cluster Slurm ottimizzati per l'AI, devi utilizzare Cluster Toolkit. Durante il deployment del cluster Slurm, il blueprint del cluster crea automaticamente un'immagine del sistema operativo personalizzata che installa il software di sistema richiesto per la gestione del cluster e del workload sui nodi Slurm. Puoi modificare i blueprint predefiniti prima di eseguirne il deployment per personalizzare alcuni dei software inclusi nelle immagini.

La sezione seguente riepiloga il software che il progetto iniziale del cluster installa sui nodi Slurm A4, A3 Ultra, A3 Mega e A3 High (8 GPU). I progetti cluster estendono le immagini del sistema operativo Ubuntu LTS Accelerator.

A4

Il progetto base A4 disponibile su GitHub include per impostazione predefinita il seguente software:

  • Ubuntu 22.04 LTS
  • Slurm: versione 24.11.2
  • Le seguenti dipendenze di Slurm:
    • munge
    • mariadb
    • libjwt
    • lmod
  • Open MPI: l'ultima release di 4.1.x
  • PMIx: versione 4.2.9
  • Client e server NFS
  • Driver della serie NVIDIA 570
  • Runtime del container NVIDIA enroot: versione 3.5.0 con correzione di bug post-release
  • NVIDIA pyxis
  • I seguenti strumenti NVIDIA:
    • Data Center GPU Manager (dcgmi)
    • nvidia-utils-570
    • nvidia-container-toolkit
    • libnvidia-nscq-570
  • Toolkit CUDA: versione 12.8
  • Supporto di Infiniband, incluso ibverbs-utils
  • Ops Agent
  • Cloud Storage FUSE

A3 Ultra

Il blueprint A3 Ultra disponibile su GitHub include il seguente software per impostazione predefinita:

  • Ubuntu 22.04 LTS
  • Slurm: versione 24.11.2
  • Le seguenti dipendenze di Slurm:
    • munge
    • mariadb
    • libjwt
    • lmod
  • Open MPI: l'ultima release di 4.1.x
  • PMIx: versione 4.2.9
  • Client e server NFS
  • Driver della serie NVIDIA 570
  • Runtime del container NVIDIA enroot: versione 3.5.0 con correzione di bug post-release
  • NVIDIA pyxis
  • I seguenti strumenti NVIDIA:
    • Data Center GPU Manager (dcgmi)
    • libnvidia-cfg1-570-server
    • libnvidia-nscq-570
    • nvidia-compute-utils-570-server
    • nsight-compute
    • nsight-systems
  • Toolkit CUDA: versione 12.8
  • Supporto di Infiniband, incluso ibverbs-utils
  • Ops Agent
  • Cloud Storage FUSE

A3 Mega

Il blueprint A3 Mega disponibile su GitHub include il seguente software per impostazione predefinita:

  • Ubuntu 22.04 LTS
  • Slurm: versione 24.11.2
  • Le seguenti dipendenze di Slurm:
    • munge
    • mariadb
    • libjwt
    • lmod
  • Open MPI: l'ultima release di 4.1.x
  • PMIx: versione 4.2.9
  • Client e server NFS
  • Driver NVIDIA serie 550
  • Runtime del container NVIDIA enroot: versione 3.4.1
  • NVIDIA pyxis
  • I seguenti strumenti NVIDIA:
    • Data Center GPU Manager (dcgmi)
    • libnvidia-cfg1-550-server
    • libnvidia-nscq-550
    • nvidia-compute-utils-550-server
    • nsight-compute
    • nsight-systems
  • Toolkit CUDA: versione 12.4
  • Supporto di Infiniband, incluso ibverbs-utils
  • TCPXO per A3 Mega: programma di installazione specifico per NCCL TCPXO e lo stack di rete da 1,6 Tbps
  • Ops Agent
  • Cloud Storage FUSE

A3 High

Il progetto base A3 High (8 GPU) disponibile su GitHub include il seguente software per impostazione predefinita:

  • Ubuntu 22.04 LTS
  • Slurm: versione 24.11.2
  • Le seguenti dipendenze di Slurm:
    • munge
    • mariadb
    • libjwt
    • lmod
  • Open MPI: l'ultima release di 4.1.x
  • PMIx: versione 4.2.9
  • Client e server NFS
  • Driver NVIDIA serie 535 o 550
  • Runtime del container NVIDIA enroot: versione 3.4.1
  • NVIDIA pyxis
  • I seguenti strumenti NVIDIA:
    • Data Center GPU Manager (dcgmi)
    • libnvidia-cfg1-535/550-server
    • libnvidia-nscq-535/550
    • nvidia-compute-utils-535/550-server
    • nsight-compute
    • nsight-systems
  • Toolkit CUDA: versione 12.2 o 12.4
  • Supporto di Infiniband, incluso ibverbs-utils
  • TCPX per A3 High (8 GPU): programma di installazione specifico per NCCL TCPX (GPUDirect-TCPX) e lo stack di rete da 800 Gbps (4 NIC)
  • Ops Agent
  • Cloud Storage FUSE

Immagini sistema operativo dell'acceleratore

AI Hypercomputer ti consente di eseguire il provisioning di singole istanze di computing o gruppi di istanze di computing. Se vuoi creare queste istanze, devi specificare un'immagine del sistema operativo durante la creazione dell'istanza.

Google Cloud offre una suite di immagini del sistema operativo per la creazione di istanze. Google Cloud offre anche un insieme specializzato di immagini del sistema operativo dell'acceleratore per istanze ottimizzate per l'AI. Queste immagini del sistema operativo includono i driver di base per la funzionalità di GPU e networking, come i driver NVIDIA, i driver Mellanox e le relative dipendenze.

Per saperne di più su ciascun sistema operativo, consulta la pagina Dettagli del sistema operativo nella documentazione di Compute Engine.

Le immagini del sistema operativo con acceleratore sono disponibili per i sistemi operativi Rocky Linux e Ubuntu LTS.

Acceleratore Rocky Linux

Per ogni serie di macchine sono disponibili le seguenti immagini del sistema operativo Rocky Linux ottimizzato per l'acceleratore:

Versione sistema operativo Famiglia di immagini Architettura Serie di macchine Progetto di immagini
Rocky Linux 9 accelerator rocky-linux-9-optimized-gcp-nvidia-580-arm64 Arm A4X Max, A4X rocky-linux-accelerator-cloud
rocky-linux-9-optimized-gcp-nvidia-580 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) rocky-linux-accelerator-cloud
rocky-linux-9-optimized-gcp-nvidia-570-arm64 Arm A4X rocky-linux-accelerator-cloud
rocky-linux-9-optimized-gcp-nvidia-570 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) rocky-linux-accelerator-cloud
Acceleratore Rocky Linux 8 rocky-linux-8-optimized-gcp-nvidia-580-arm64 Arm A4X Max, A4X rocky-linux-accelerator-cloud
rocky-linux-8-optimized-gcp-nvidia-580 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) rocky-linux-accelerator-cloud
rocky-linux-8-optimized-gcp-nvidia-570 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) rocky-linux-accelerator-cloud

Acceleratore Ubuntu LTS

Per ogni serie di macchine sono disponibili le seguenti immagini del sistema operativo Ubuntu LTS Accelerator:

Versione sistema operativo Famiglia di immagini Architettura Serie di macchine Progetto di immagini
Acceleratore Ubuntu 24.04 LTS ubuntu-accelerator-2404-arm64-with-nvidia-580 Arm A4X Max, A4X ubuntu-os-accelerator-images
ubuntu-accelerator-2404-amd64-with-nvidia-580 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) ubuntu-os-accelerator-images
ubuntu-accelerator-2404-arm64-with-nvidia-570 Arm A4X ubuntu-os-accelerator-images
ubuntu-accelerator-2404-amd64-with-nvidia-570 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) ubuntu-os-accelerator-images
Acceleratore Ubuntu 22.04 LTS ubuntu-accelerator-2204-arm64-with-nvidia-580 Arm A4X Max, A4X ubuntu-os-accelerator-images
ubuntu-accelerator-2204-amd64-with-nvidia-580 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) ubuntu-os-accelerator-images
ubuntu-accelerator-2204-arm64-with-nvidia-570 Arm A4X ubuntu-os-accelerator-images
ubuntu-accelerator-2204-amd64-with-nvidia-570 x86 A4, A3 Ultra, A3 Mega, A3 High (8 GPU) ubuntu-os-accelerator-images

Passaggi successivi