Nesta página, você encontra uma visão geral do fluxo de trabalho para treinar e usar seus próprios modelos de machine learning (ML) na Vertex AI. A Vertex AI oferece um espectro de métodos de treinamento projetados para atender às suas necessidades, desde totalmente automatizados até totalmente personalizados.
- AutoML: crie modelos de alta qualidade com o mínimo de esforço técnico usando os recursos automatizados de ML do Google.
- Treinamento sem servidor da Vertex AI: execute seu código de treinamento personalizado em um ambiente totalmente gerenciado e sob demanda sem se preocupar com a infraestrutura.
- Clusters de treinamento da Vertex AI: execute jobs de treinamento de grande escala e alto desempenho em um cluster dedicado de aceleradores reservado para seu uso exclusivo.
- Ray na Vertex AI: escalone aplicativos Python e cargas de trabalho de ML usando o framework Ray de código aberto em um serviço gerenciado.
Se precisar de ajuda para decidir qual desses métodos usar, consulte Escolher um método de treinamento.
AutoML
Com o AutoML na Vertex AI, você cria um modelo de ML sem código com base nos dados de treinamento fornecidos. O AutoML pode automatizar tarefas como preparação de dados, seleção de modelos, ajuste de hiperparâmetros e implantação para vários tipos de dados e tarefas de previsão, o que pode tornar o ML mais acessível para uma ampla variedade de usuários.
Tipos de modelos que você pode criar usando o AutoML
Os tipos de modelo que você pode criar dependem do tipo de dados que você tem. A Vertex AI oferece soluções do AutoML para os seguintes tipos de dados e objetivos de modelo:
| Tipo de dados | Objetivos compatíveis |
|---|---|
| Dados de imagem | Classificação, detecção de objetos. |
| Dados em tabela | Classificação/regressão, previsão. |
Para saber mais sobre o AutoML, consulte Visão geral do treinamento do AutoML.
Executar código de treinamento personalizado na Vertex AI
Se o AutoML não atender às suas necessidades, forneça seu próprio código de treinamento e execute-o na infraestrutura gerenciada da Vertex AI. Isso oferece controle total e flexibilidade sobre a arquitetura e a lógica de treinamento do modelo, permitindo que você use qualquer framework de ML que escolher.
A Vertex AI oferece dois modos principais para executar seu código de treinamento personalizado: um ambiente sem servidor e sob demanda ou um cluster dedicado e reservado.
Treinamento sem servidor da Vertex AI
O treinamento sem servidor é um serviço totalmente gerenciado que permite executar seu aplicativo de treinamento personalizado sem provisionar ou gerenciar infraestrutura.
Você empacota o código em um contêiner, define as especificações da máquina (incluindo CPUs e GPUs) e envia como um CustomJob.
A Vertex AI cuida do restante:
- Provisionar os recursos de computação durante a execução do job.
- Execução do código de treinamento.
- Excluir os recursos após a conclusão do job.
Esse modelo de pagamento por uso e sob demanda é ideal para experimentação, prototipagem rápida e jobs de produção que não exigem capacidade garantida e instantânea.
Para saber mais, consulte Criar um job personalizado de treinamento sem servidor
Clusters de treinamento da Vertex AI
Para treinamento em grande escala, de alto desempenho e essencial, é possível reservar um cluster dedicado de aceleradores. Isso garante a capacidade e elimina as filas, garantindo que seus jobs comecem imediatamente.
Embora você tenha o uso exclusivo desses recursos, a Vertex AI ainda processa a sobrecarga operacional do gerenciamento do cluster, incluindo manutenção de hardware e aplicação de patch do SO. Essa abordagem de "servidor gerenciado" oferece a potência de um cluster dedicado sem a complexidade do gerenciamento.
Ray na Vertex AI
O Ray na Vertex AI é um serviço que permite usar o framework Ray de código aberto para escalonar aplicativos de IA e Python diretamente na plataforma Vertex AI. O Ray foi projetado para fornecer a infraestrutura de computação distribuída e processamento paralelo para seu fluxo de trabalho de ML.
O Ray na Vertex AI oferece um ambiente gerenciado para executar aplicativos distribuídos usando o framework Ray, oferecendo escalonabilidade e integração com serviços do Google Cloud .
Para saber mais sobre o Ray na Vertex AI, consulte Visão geral do Ray na Vertex AI.