Sobre GPUs no Google Cloud

OGoogle Cloud tem como foco fornecer infraestrutura de inteligência artificial (IA) de nível mundial para potencializar suas cargas de trabalho aceleradas por GPU mais exigentes em uma ampla variedade de segmentos. É possível usar GPUs no Google Cloud para executar aplicativos de IA, aprendizado de máquina (ML), científicos, analíticos, corporativos, de engenharia e de consumo.

Com nossa parceria com a NVIDIA, Google Cloud oferece as GPUs mais recentes e otimiza a pilha de software com uma ampla variedade de opções de armazenamento e rede. Para acessar uma lista completa de GPUs disponíveis, consulte Plataformas de GPU.

Confira nas seções a seguir os benefícios das GPUs no Google Cloud.

VMs aceleradas por GPU

No Google Cloud, você pode acessar e provisionar GPUs da maneira que melhor atende às suas necessidades. Uma família de máquinas especializadas e otimizadas para aceleradores está disponível, com GPUs pré-conectadas e recursos de rede ideais para maximizar o desempenho. Elas estão disponíveis nas séries de máquinas A4X, A4, A3, A2 e G2.

Várias opções de provisionamento

Você pode provisionar clusters usando a família de máquinas otimizadas para aceleradores com qualquer um dos seguintes produtos de código aberto ou do Google Cloud .

Vertex AI

A Vertex AI é uma plataforma de machine learning (ML) totalmente gerenciada que você pode usar para treinar e implantar modelos de ML e aplicativos de IA. Nos aplicativos da Vertex AI, você pode usar VMs aceleradas por GPU para melhorar o desempenho das seguintes formas:

do Google Cloud

O Hipercomputador de IA é um sistema de supercomputação otimizado para oferecer suporte às suas cargas de trabalho de inteligência artificial (IA) e machine learning (ML). É um sistema integrado de hardware com desempenho otimizado, software aberto, frameworks de ML e modelos de consumo flexíveis. O Hipercomputador de IA tem recursos e serviços projetados para permitir que você implante e gerencie grandes quantidades, até dezenas de milhares, de recursos de acelerador e rede que funcionam como uma única unidade homogênea. Essa opção é ideal para criar uma infraestrutura densamente alocada e otimizada para desempenho com integrações para o Google Kubernetes Engine (GKE) e programadores do Slurm. Para mais informações, consulte a visão geral do hipercomputador de IA.

Para começar a usar o Cluster Director, consulte Escolher uma estratégia de implantação.

Compute Engine

Você também pode criar e gerenciar VMs individuais ou pequenos clusters de VMs com GPUs anexadas no Compute Engine. Esse método é usado principalmente para executar cargas de trabalho com uso intensivo de gráficos, simulação ou treinamento de modelos de ML em pequena escala.

A tabela a seguir mostra os métodos que podem ser usados para criar VMs com GPUs anexadas:

Opção de implantação

Guias de implantação

Criar uma VM para veiculação e cargas de trabalho de nó único

Criar uma VM A3 Edge ou A3 High

Criar grupos gerenciados de instâncias (MIGs)

Essa opção usa o Dynamic Workload Scheduler (DWS).

Criar um MIG com VMs de GPU

Criar VMs em massa

Criar um grupo de VMs de GPU em massa

Criar uma única VM

Criar uma única VM de GPU

Criar estações de trabalho virtuais

Criar uma estação de trabalho virtual acelerada por GPU

Cloud Run

É possível configurar GPUs para suas instâncias do Cloud Run. As GPUs são ideais para executar cargas de trabalho de inferência de IA usando modelos de linguagem grandes no Cloud Run.

No Cloud Run, consulte estes recursos para executar cargas de trabalho de IA em GPUs: