Nesta página, explicamos a integração do TensorFlow da plataforma de agentes do Gemini Enterprise e oferecemos recursos que mostram como usar o TensorFlow na plataforma de agentes do Gemini Enterprise. A integração do TensorFlow com a plataforma de agentes do Gemini Enterprise facilita o treinamento, a implantação e a orquestração de modelos do TensorFlow na produção.
Executar código em notebooks
A plataforma de agentes oferece duas opções para executar o código em notebooks: Colab Enterprise e Vertex AI Workbench. Para saber mais sobre essas opções, consulte Escolher uma solução de notebook.
Contêineres pré-criados para treinamento
A plataforma de agente do Gemini Enterprise oferece imagens de contêiner do Docker pré-criadas para treinamento de modelo. Esses contêineres são organizados por frameworks de aprendizado de máquina, versões de framework e incluem dependências comuns que podem ser usadas no código de treinamento.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Treinamento distribuído
É possível executar o treinamento distribuído de modelos do TensorFlow na plataforma de agentes do Gemini Enterprise. Para o treinamento de vários workers, é possível usar o Servidor de redução para otimizar ainda mais o desempenho para operações coletivas com redução de tudo. Para saber mais sobre o treinamento distribuído na plataforma de agentes do Gemini Enterprise, consulte Treinamento distribuído.
Contêineres pré-criados para inferência
Semelhante aos contêineres pré-criados para treinamento, a plataforma de agentes do Gemini Enterprise fornece imagens de contêiner pré-criadas para veicular inferências e explicações de modelos do TensorFlow que você criou dentro ou fora da plataforma de agentes do Gemini Enterprise. Essas imagens fornecem servidores de inferência HTTP que podem ser usados para exibir inferências com o mínimo de configuração.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Ambiente de execução otimizado do TensorFlow
O ambiente de execução otimizado do TensorFlow usa otimizações de modelo e novas tecnologias proprietárias do Google para melhorar a velocidade e reduzir o custo das inferências em comparação com os contêineres de inferência pré-criados padrão da plataforma de agentes do Gemini Enterprise para TensorFlow.
Integração do TensorFlow Cloud Profiler
Treine modelos mais baratos e mais rápidos monitorando e otimizando o desempenho do seu job de treinamento usando a integração do TensorFlow Cloud Profiler da plataforma de agente do Gemini Enterprise. O TensorFlow Cloud Profiler ajuda a entender o consumo de recursos das operações de treinamento para que você possa identificar e eliminar gargalos de desempenho.
Para saber mais sobre o TensorFlow Cloud Profiler da plataforma de agentes, consulte Gerar perfil de desempenho do treinamento de modelo usando o Profiler.
Recursos para usar o TensorFlow na plataforma de agentes do Gemini Enterprise
Para saber mais e começar a usar o TensorFlow na plataforma de agentes do Gemini Enterprise, consulte os recursos a seguir.
Protótipo para produção: uma série de vídeos que fornece um exemplo completo de desenvolvimento e implantação de um modelo personalizado do TensorFlow na plataforma de agentes do Gemini Enterprise.
Otimize o desempenho do treinamento com o servidor de redução na plataforma de agentes do Gemini Enterprise: uma postagem do blog sobre como otimizar o treinamento distribuído na plataforma de agentes do Gemini Enterprise usando o servidor de redução.
Como otimizar o desempenho do treinamento com o TensorFlow Cloud Profiler na plataforma de agentes do Gemini Enterprise: uma postagem de blog que mostra como identificar gargalos de desempenho no seu job de treinamento usando o TensorFlow Cloud Profiler da plataforma de agentes do Gemini Enterprise.
Previsão em lote de modelo personalizado com filtragem de atributos: um tutorial do notebook que mostra como usar o SDK da plataforma de agentes para Python para treinar um modelo de classificação tabular personalizado e realizar a inferência em lote com a filtragem de atributos.
Pipelines da plataforma de agentes: treinamento personalizado com componentes de pipeline Google Cloud predefinidos: um tutorial do notebook que mostra como usar pipelines da plataforma de agentes do Gemini Enterprise com componentes de pipeline Google Cloud predefinidos para treinamento personalizado.
Co-hospedar modelos do TensorFlow na mesma VM para previsões: um codelab que mostra como usar o recurso de modelo de co-hospedagem na plataforma Gemini Enterprise Agent para hospedar vários modelos na mesma VM para inferências on-line.