Integração com o TensorFlow

Nesta página, explicamos a integração do TensorFlow da plataforma de agentes do Gemini Enterprise e oferecemos recursos que mostram como usar o TensorFlow na plataforma de agentes do Gemini Enterprise. A integração do TensorFlow com a plataforma de agentes do Gemini Enterprise facilita o treinamento, a implantação e a orquestração de modelos do TensorFlow na produção.

Executar código em notebooks

A plataforma de agentes oferece duas opções para executar o código em notebooks: Colab Enterprise e Vertex AI Workbench. Para saber mais sobre essas opções, consulte Escolher uma solução de notebook.

Contêineres pré-criados para treinamento

A plataforma de agente do Gemini Enterprise oferece imagens de contêiner do Docker pré-criadas para treinamento de modelo. Esses contêineres são organizados por frameworks de aprendizado de máquina, versões de framework e incluem dependências comuns que podem ser usadas no código de treinamento.

Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.

Treinamento distribuído

É possível executar o treinamento distribuído de modelos do TensorFlow na plataforma de agentes do Gemini Enterprise. Para o treinamento de vários workers, é possível usar o Servidor de redução para otimizar ainda mais o desempenho para operações coletivas com redução de tudo. Para saber mais sobre o treinamento distribuído na plataforma de agentes do Gemini Enterprise, consulte Treinamento distribuído.

Contêineres pré-criados para inferência

Semelhante aos contêineres pré-criados para treinamento, a plataforma de agentes do Gemini Enterprise fornece imagens de contêiner pré-criadas para veicular inferências e explicações de modelos do TensorFlow que você criou dentro ou fora da plataforma de agentes do Gemini Enterprise. Essas imagens fornecem servidores de inferência HTTP que podem ser usados para exibir inferências com o mínimo de configuração.

Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.

Ambiente de execução otimizado do TensorFlow

O ambiente de execução otimizado do TensorFlow usa otimizações de modelo e novas tecnologias proprietárias do Google para melhorar a velocidade e reduzir o custo das inferências em comparação com os contêineres de inferência pré-criados padrão da plataforma de agentes do Gemini Enterprise para TensorFlow.

Integração do TensorFlow Cloud Profiler

Treine modelos mais baratos e mais rápidos monitorando e otimizando o desempenho do seu job de treinamento usando a integração do TensorFlow Cloud Profiler da plataforma de agente do Gemini Enterprise. O TensorFlow Cloud Profiler ajuda a entender o consumo de recursos das operações de treinamento para que você possa identificar e eliminar gargalos de desempenho.

Para saber mais sobre o TensorFlow Cloud Profiler da plataforma de agentes, consulte Gerar perfil de desempenho do treinamento de modelo usando o Profiler.

Recursos para usar o TensorFlow na plataforma de agentes do Gemini Enterprise

Para saber mais e começar a usar o TensorFlow na plataforma de agentes do Gemini Enterprise, consulte os recursos a seguir.