Prepare e use os seus próprios modelos

Esta página oferece uma vista geral do fluxo de trabalho para preparar e usar os seus próprios modelos de aprendizagem automática (ML) no Vertex AI. A Vertex AI oferece um espetro de métodos de preparação concebidos para satisfazer as suas necessidades, desde totalmente automáticos a totalmente personalizados.

  • AutoML: crie modelos de alta qualidade com o mínimo de esforço técnico tirando partido das capacidades de aprendizagem automática automatizada da Google.
  • Preparação sem servidor do Vertex AI: execute o seu código de preparação personalizado num ambiente totalmente gerido e a pedido sem se preocupar com a infraestrutura.
  • Clusters de preparação do Vertex AI: execute tarefas de preparação de grande escala e de alto desempenho num cluster dedicado de aceleradores reservado para seu uso exclusivo.
  • Ray no Vertex AI: dimensione as aplicações Python e as cargas de trabalho de ML com a framework Ray de código aberto num serviço gerido.

Para receber ajuda na decisão sobre qual destes métodos usar, consulte o artigo Escolha um método de preparação.

AutoML

O AutoML no Vertex AI permite-lhe criar um modelo de ML sem código com base nos dados de preparação que fornece. O AutoML pode automatizar tarefas como a preparação de dados, a seleção de modelos, o ajuste de hiperparâmetros e a implementação para vários tipos de dados e tarefas de previsão, o que pode tornar a aprendizagem automática mais acessível a uma vasta gama de utilizadores.

Tipos de modelos que pode criar com o AutoML

Os tipos de modelos que pode criar dependem do tipo de dados que tem. A Vertex AI oferece soluções AutoML para os seguintes tipos de dados e objetivos de modelos:

Tipo de dados Objetivos suportados
Dados da imagem Classificação, deteção de objetos.
Dados tabulares Classificação/regressão, previsão.

Para saber mais sobre o AutoML, consulte a vista geral da preparação do AutoML.

Execute código de preparação personalizado no Vertex AI

Se o AutoML não satisfizer as suas necessidades, pode fornecer o seu próprio código de preparação e executá-lo na infraestrutura gerida do Vertex AI. Isto dá-lhe controlo total e flexibilidade sobre a arquitetura e a lógica de preparação do seu modelo, permitindo-lhe usar qualquer framework de AA que escolher.

O Vertex AI oferece dois modos principais para executar o seu código de programação personalizado: um ambiente sem servidor a pedido ou um cluster dedicado reservado.

Preparação sem servidor do Vertex AI

A preparação sem servidor é um serviço totalmente gerido que lhe permite executar a sua aplicação de preparação personalizada sem aprovisionar nem gerir qualquer infraestrutura. Empacota o seu código num contentor, define as especificações da máquina (incluindo CPUs e GPUs) e envia-o como um CustomJob.

A Vertex AI trata do resto:

  • Aprovisionamento dos recursos de computação durante a duração da tarefa.
  • Executar o código de preparação.
  • Eliminar os recursos após a conclusão da tarefa.

Este modelo a pedido, de pagamento por utilização, é ideal para experimentação, criação rápida de protótipos e trabalhos de produção que não requerem capacidade garantida e instantânea.

Para saber mais, consulte o artigo Crie uma tarefa personalizada de preparação sem servidor

Clusters de preparação do Vertex AI

Para uma preparação em grande escala, de alto desempenho e essencial, pode reservar um cluster dedicado de aceleradores. Isto garante capacidade e elimina filas, o que assegura que os seus trabalhos começam imediatamente.

Embora tenha uma utilização exclusiva destes recursos, o Vertex AI continua a gerir as despesas gerais operacionais da gestão do cluster, incluindo a manutenção do hardware e a aplicação de patches do SO. Esta abordagem "gerida sem servidor" dá-lhe o poder de um cluster dedicado sem a complexidade da gestão.

Ray no Vertex AI

O Ray no Vertex AI é um serviço que lhe permite usar a framework Ray de código aberto para dimensionar aplicações de IA e Python diretamente na plataforma Vertex AI. O Ray foi concebido para fornecer a infraestrutura para computação distribuída e processamento paralelo para o seu fluxo de trabalho de ML.

O Ray no Vertex AI oferece um ambiente gerido para executar aplicações distribuídas através da framework Ray, oferecendo escalabilidade e integração com os Google Cloud serviços.

Para saber mais sobre o Ray no Vertex AI, consulte a vista geral do Ray no Vertex AI.