Esta página oferece uma vista geral do fluxo de trabalho para preparar e usar os seus próprios modelos de aprendizagem automática (ML) no Vertex AI. A Vertex AI oferece um espetro de métodos de preparação concebidos para satisfazer as suas necessidades, desde totalmente automáticos a totalmente personalizados.
- AutoML: crie modelos de alta qualidade com o mínimo de esforço técnico tirando partido das capacidades de aprendizagem automática automatizada da Google.
- Preparação sem servidor do Vertex AI: execute o seu código de preparação personalizado num ambiente totalmente gerido e a pedido sem se preocupar com a infraestrutura.
- Clusters de preparação do Vertex AI: execute tarefas de preparação de grande escala e de alto desempenho num cluster dedicado de aceleradores reservado para seu uso exclusivo.
- Ray no Vertex AI: dimensione as aplicações Python e as cargas de trabalho de ML com a framework Ray de código aberto num serviço gerido.
Para receber ajuda na decisão sobre qual destes métodos usar, consulte o artigo Escolha um método de preparação.
AutoML
O AutoML no Vertex AI permite-lhe criar um modelo de ML sem código com base nos dados de preparação que fornece. O AutoML pode automatizar tarefas como a preparação de dados, a seleção de modelos, o ajuste de hiperparâmetros e a implementação para vários tipos de dados e tarefas de previsão, o que pode tornar a aprendizagem automática mais acessível a uma vasta gama de utilizadores.
Tipos de modelos que pode criar com o AutoML
Os tipos de modelos que pode criar dependem do tipo de dados que tem. A Vertex AI oferece soluções AutoML para os seguintes tipos de dados e objetivos de modelos:
| Tipo de dados | Objetivos suportados |
|---|---|
| Dados da imagem | Classificação, deteção de objetos. |
| Dados tabulares | Classificação/regressão, previsão. |
Para saber mais sobre o AutoML, consulte a vista geral da preparação do AutoML.
Execute código de preparação personalizado no Vertex AI
Se o AutoML não satisfizer as suas necessidades, pode fornecer o seu próprio código de preparação e executá-lo na infraestrutura gerida do Vertex AI. Isto dá-lhe controlo total e flexibilidade sobre a arquitetura e a lógica de preparação do seu modelo, permitindo-lhe usar qualquer framework de AA que escolher.
O Vertex AI oferece dois modos principais para executar o seu código de programação personalizado: um ambiente sem servidor a pedido ou um cluster dedicado reservado.
Preparação sem servidor do Vertex AI
A preparação sem servidor é um serviço totalmente gerido que lhe permite executar a sua aplicação de preparação personalizada sem aprovisionar nem gerir qualquer infraestrutura.
Empacota o seu código num contentor, define as especificações da máquina (incluindo CPUs e GPUs) e envia-o como um CustomJob.
A Vertex AI trata do resto:
- Aprovisionamento dos recursos de computação durante a duração da tarefa.
- Executar o código de preparação.
- Eliminar os recursos após a conclusão da tarefa.
Este modelo a pedido, de pagamento por utilização, é ideal para experimentação, criação rápida de protótipos e trabalhos de produção que não requerem capacidade garantida e instantânea.
Para saber mais, consulte o artigo Crie uma tarefa personalizada de preparação sem servidor
Clusters de preparação do Vertex AI
Para uma preparação em grande escala, de alto desempenho e essencial, pode reservar um cluster dedicado de aceleradores. Isto garante capacidade e elimina filas, o que assegura que os seus trabalhos começam imediatamente.
Embora tenha uma utilização exclusiva destes recursos, o Vertex AI continua a gerir as despesas gerais operacionais da gestão do cluster, incluindo a manutenção do hardware e a aplicação de patches do SO. Esta abordagem "gerida sem servidor" dá-lhe o poder de um cluster dedicado sem a complexidade da gestão.
Ray no Vertex AI
O Ray no Vertex AI é um serviço que lhe permite usar a framework Ray de código aberto para dimensionar aplicações de IA e Python diretamente na plataforma Vertex AI. O Ray foi concebido para fornecer a infraestrutura para computação distribuída e processamento paralelo para o seu fluxo de trabalho de ML.
O Ray no Vertex AI oferece um ambiente gerido para executar aplicações distribuídas através da framework Ray, oferecendo escalabilidade e integração com os Google Cloud serviços.
Para saber mais sobre o Ray no Vertex AI, consulte a vista geral do Ray no Vertex AI.