Si vous avez besoin de GPU pour des tâches graphiques avec accélération matérielle sur un bureau à distance ou pour les jeux vidéo, vous pouvez créer des postes de travail virtuels qui utilisent des postes de travail virtuels (vWS) NVIDIA RTX (anciennement appelés NVIDIA GRID).
Les postes de travail virtuels NVIDIA RTX sont parfaits pour exécuter des charges de travail utilisant des API telles que Vulkan, OpenGL ou Direct3D sur un bureau à distance dans le cloud.
Lorsque vous sélectionnez un GPU compatible avec la visualisation pour un poste de travail virtuel, vous pouvez ajouter une licence de poste de travail virtuel NVIDIA RTX à votre VM. Pour en savoir plus sur les tarifs, consultez la section Tarifs des GPU.
Pour configurer un poste de travail virtuel NVIDIA RTX, procédez comme suit :
- Créez une VM à laquelle est associé un GPU compatible avec la visualisation et pour laquelle le poste de travail virtuel est activé.
- Installez un pilote pour le poste de travail virtuel.
Après avoir créé votre poste de travail virtuel, vous pouvez vous y connecter à l'aide d'un protocole de bureau à distance, tel que le protocole RDP (Remote Desktop Protocol) de Windows, HP Anyware® ou VMware® Horizon View.
Avant de commencer
-
Si ce n'est pas déjà fait, configurez l'authentification.
L'authentification permet de valider votre identité pour accéder aux services et aux API Google Cloud . Pour exécuter du code ou des exemples depuis un environnement de développement local, vous pouvez vous authentifier auprès de Compute Engine en sélectionnant l'une des options suivantes :
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
-
Installez la Google Cloud CLI. Une fois que la Google Cloud CLI est installée, initialisez-la en exécutant la commande suivante :
gcloud init
Si vous utilisez un fournisseur d'identité (IdP) externe, vous devez d'abord vous connecter à la gcloud CLI avec votre identité fédérée.
- Set a default region and zone.
REST
Pour utiliser les exemples API REST de cette page dans un environnement de développement local, vous devez utiliser les identifiants que vous fournissez à la gcloud CLI.
Installez la Google Cloud CLI. Une fois que la Google Cloud CLI est installée, initialisez-la en exécutant la commande suivante :
gcloud init
Si vous utilisez un fournisseur d'identité (IdP) externe, vous devez d'abord vous connecter à la gcloud CLI avec votre identité fédérée.
Pour en savoir plus, consultez la section S'authentifier pour utiliser REST dans la documentation sur l'authentification Google Cloud .
Logiciel de GPU virtuel NVIDIA minimal recommandé
Les postes de travail virtuels (vWS) NVIDIA RTX sont compatibles avec les séries de machines suivantes.
- G2 : vous pouvez activer les vWS NVIDIA L4 sur ces types de machines.
- N1 : vous pouvez activer les GPU vWS NVIDIA T4, V100 ou P100 sur ces types de machines.
Le tableau suivant indique le logiciel NVIDIA Virtual GPU Software recommandé pour ces types de machines.
Version du logiciel NVIDIA vGPU Pilote NVIDIA recommandé (Linux) Pilote NVIDIA recommandé (Windows) 19 Dernier pilote R580 Dernier pilote R580 18 Dernier pilote R570 Dernier pilote R570 17 1 550.90.07 ou version ultérieure 552.55 ou ultérieure 16 535.183.01 ou ultérieure 538.67 ou ultérieure 1 La version 17 du logiciel de GPU virtuels NVIDIA n'est plus prise en charge. Nous vous recommandons d'installer une version ultérieure du logiciel de GPU virtuel.
Limites
Pour les postes de travail virtuels NVIDIA RTX Ubuntu 24.04, il est possible que les versions disponibles du pilote NVIDIA GRID ne soient pas entièrement compatibles avec Direct Rendering Infrastructure 3 (DRI3). Ce manque de compatibilité totale peut affecter l'accélération GPU pour certaines applications de bureau et certains environnements de bureau virtuel, tels que Virtual Network Computing (VNC) et Chromium. Si vous devez exécuter ces applications, utilisez Ubuntu 22.04.
Installation automatique des pilotes
Vous pouvez utiliser un script Open Source sur GitHub pour automatiser l'installation des pilotes RTX Virtual Workstation. Il s'agit du même script que celui utilisé pour l'installation régulière du pilote. Il détecte automatiquement que le poste de travail virtuel RTX est activé sur votre instance et installe le pilote approprié.
Linux
Suivez ces instructions pour installer des pilotes de GPU sur une VM en cours d'exécution.
Systèmes d'exploitation compatibles
Le script d'installation Linux a été testé sur les systèmes d'exploitation suivants :
- Debian 12
- Red Hat Enterprise Linux (RHEL) 8 et 9
- Rocky Linux 8 et 9
- Ubuntu 22 et 24
Si vous utilisez ce script sur d'autres systèmes d'exploitation, l'installation échouera. Ce script peut installer le pilote NVIDIA ainsi que CUDA Toolkit.
Pour installer les pilotes de GPU et CUDA Toolkit, procédez comme suit :
Assurez-vous que Python 3 est installé sur votre système d'exploitation.
Téléchargez le script d'installation.
curl -L https://storage.googleapis.com/compute-gpu-installation-us/installer/latest/cuda_installer.pyz --output cuda_installer.pyz
Exécutez le script d'installation.
sudo python3 cuda_installer.pyz install_driver
L'exécution du script peut prendre un certain temps. Il redémarrera votre VM. Lorsque la VM redémarre, exécutez à nouveau le script pour continuer l'installation.
Vérifiez l'installation. Consultez Vérifier que le pilote est installé.
Vous pouvez également utiliser cet outil pour installer le CUDA Toolkit. Pour installer le CUDA Toolkit, exécutez la commande suivante:
sudo python3 cuda_installer.pyz install_cuda
L'exécution du script prendra un certain temps. Il redémarrera votre VM. Lorsque la VM redémarre, exécutez à nouveau le script pour continuer l'installation.
Vérifiez l'installation de CUDA Toolkit.
python3 cuda_installer.pyz verify_cuda
Une fois l'installation terminée, vous devez redémarrer la VM.
Linux (script de démarrage)
Suivez ces instructions pour installer des pilotes de GPU au démarrage d'une VM.
Systèmes d'exploitation compatibles
Le script d'installation Linux a été testé sur les systèmes d'exploitation suivants :
- Debian 12
- Red Hat Enterprise Linux (RHEL) 8 et 9
- Rocky Linux 8 et 9
- Ubuntu 22 et 24
Si vous utilisez ce script sur d'autres systèmes d'exploitation, l'installation échouera. Ce script peut installer le pilote NVIDIA ainsi que CUDA Toolkit.
Utilisez le script de démarrage suivant pour automatiser l'installation du pilote et de CUDA Toolkit:
Installation manuelle du pilote
Procédez comme suit sur votre VM.
Pour les systèmes d'exploitation Linux, installez les outils de compilation pour votre version Linux.
CentOS/RHEL
sudo yum group install "Development Tools"
Debian/Ubuntu
Installez les outils de compilation.
sudo apt update
sudo apt install -y build-essential
sudo apt install -y libvulkan1
Si vous utilisez Ubuntu 22.04, mettez à jour la version
gcc
pour le pilote NVIDIA.sudo apt install -y gcc-12
sudo apt install -y linux-headers-$(uname -r)
sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-12 12
sudo update-alternatives --config gcc
SLES
SLES 12
sudo zypper install -t pattern devel_basis
sudo zypper install gcc8
SLES 15
sudo SUSEConnect -p sle-module-development-tools/15/x86_64
sudo zypper install gcc8
Pour les systèmes d'exploitation Linux, installez les en-têtes de noyau Linux. Consultez la section Vérifier que le système dispose des en-têtes de noyau et des packages de développement corrects dans la documentation de NVIDIA.
Pour tous les systèmes d'exploitation, installez les pilotes.
Linux
Téléchargez le pilote. Pour obtenir la liste complète des pilotes de postes de travail virtuels NVIDIA RTX que vous pouvez utiliser sur Compute Engine, consultez la page Pilotes pour le poste de travail virtuel NVIDIA RTX.
Par exemple, pour télécharger le pilote NVIDIA 580.82.07, exécutez la commande suivante :
curl -O https://storage.googleapis.com/nvidia-drivers-us-public/GRID/vGPU19.1/NVIDIA-Linux-x86_64-580.82.07-grid.run
Démarrez le programme d'installation.
Par exemple, pour démarrer le pilote NVIDIA 580.82.07, exécutez la commande suivante :
sudo bash NVIDIA-Linux-x86_64-580.82.07-grid.run
Pendant l'installation, choisissez les options suivantes :
- Si vous êtes invité à installer des fichiers binaires 32 bits, sélectionnez Oui.
- Si vous êtes invité à modifier le fichier
x.org
, sélectionnez Non.
Windows Server
Selon votre version de Windows Server, téléchargez les pilotes de poste de travail virtuel NVIDIA RTX requis.
Pour obtenir la liste complète des pilotes de postes de travail virtuels NVIDIA RTX que vous pouvez utiliser sur des VM Windows exécutées sur Compute Engine, consultez la page Pilotes pour le poste de travail virtuel NVIDIA RTX.
Exécutez le programme d'installation et choisissez l'installation Express.
Une fois l'installation terminée, redémarrez la machine virtuelle. Vous serez alors déconnecté de votre session.
Reconnectez-vous à votre instance à l'aide de RDP ou d'un client PCoIP.
Cette étape n'est requise que pour les postes de travail virtuels NVIDIA RTX basés sur Linux et associés à des GPU T4 ou L4.
Si vous avez installé un pilote NVIDIA 510 ou une version ultérieure, vous devez désactiver le micrologiciel GSP. Consultez la section Désactiver le micrologiciel GSP dans la documentation Nvidia. Lorsque vous effectuez cette étape, tenez compte des points suivants :
- Utilisez
sudo
pour exécuter les commandes permettant de créer et de mettre à jour le fichier de configuration. - Pour redémarrer la VM, vous pouvez utiliser
sudo reboot
ou arrêter et démarrer la VM.
- Utilisez
Vérifier que le pilote est installé
Linux
Une fois les pilotes installés, vérifiez qu'ils sont bien installés et que la licence NVIDIA RTX Virtual Workstation est active.
Pour vérifier l'installation du pilote, exécutez la commande suivante :
nvidia-smi
Le résultat de la commande ressemble à ceci :
+-----------------------------------------------------------------------------------------+ | NVIDIA-SMI 580.82.07 Driver Version: 580.82.07 CUDA Version: 13.0 | +-----------------------------------------+------------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+========================+======================| | 0 Tesla T4 On | 00000000:00:04.0 Off | 0 | | N/A 53C P8 17W / 70W | 0MiB / 15360MiB | 0% Default | | | | N/A | +-----------------------------------------+------------------------+----------------------+ +-----------------------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=========================================================================================| | No running processes found | +-----------------------------------------------------------------------------------------+
Pour vérifier la licence du poste de travail virtuel NVIDIA RTX, exécutez la commande suivante :
nvidia-smi -q
Pour valider l'accélération GPU pour les applications de bureau, recherchez la section
vGPU Software Licensed Product
dans le résultat. Sur une VM de poste de travail virtuel NVIDIA RTX correctement concédée, vous devriez voir ce qui suit :vGPU Software Licensed Product Product Name : NVIDIA RTX Virtual Workstation License Status : Licensed (Expiry: Permanent)
Ce résultat indique que le pilote fonctionne et peut fournir des graphiques accélérés.
Si un autre résultat s'affiche, cela signifie que le pilote n'est pas autorisé pour le poste de travail virtuel NVIDIA RTX et que vous ne bénéficierez pas de l'accélération GPU.
Par exemple, si la VM n'a pas été créée avec le
--accelerator-type
approprié qui active vWS, le résultat suivant peut s'afficher :vGPU Software Licensed Product Product Name : NVIDIA Virtual Applications License Status : Licensed (Expiry: N/A)
Cela peut se produire si la licence NVIDIA RTX Virtual Workstation n'a pas été activée lors de la création de la VM. Pour résoudre ce problème, vous devez recréer votre VM à l'aide d'un modèle de GPU compatible avec NVIDIA RTX Virtual Workstation et veiller à activer le poste de travail virtuel lorsque vous associez les GPU. Pour obtenir des instructions détaillées, consultez la section Créer une instance pour votre type de machine.
Windows Server
Connectez-vous à votre instance Windows à l'aide de RDP ou d'un client PCoIP.
Cliquez avec le bouton droit sur le bureau et sélectionnez Panneau de configuration NVIDIA.
Dans le menu d'aide du panneau de configuration NVIDIA, sélectionnez Informations système. Les informations indiquent le GPU utilisé par la machine virtuelle et la version du pilote.
Étape suivante
- Pour surveiller les performances du GPU, consultez la page Surveiller les performances du GPU.
- Pour gérer la maintenance de l'hôte GPU, consultez la section Gérer les événements de maintenance de l'hôte GPU.
- Pour améliorer les performances du réseau, consultez la section Utiliser une bande passante réseau plus élevée.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/10/19 (UTC).
-