Nesta página, você encontra uma lista selecionada de recursos para ajudar a criar e implantar soluções de IA no Cloud Run.
O Cloud Run é uma plataforma de aplicativos totalmente gerenciada para executar seu código, função ou contêiner na infraestrutura altamente escalonável do Google. Você pode usar o Cloud Run para executar várias soluções de IA, como endpoints de inferência de IA, APIs de modelos generativos, pipelines completos de geração aumentada de recuperação (RAG) e muito mais.
Use as categorias e os links abaixo para navegar por guias oficiais, guias de início rápido e conteúdo valioso da comunidade. Para documentação e recomendações do Cloud Run, consulte Conheça as soluções de IA no Cloud Run.
Observação sobre recursos da comunidade
O conteúdo rotulado como "Comunidade" são recursos selecionados da comunidade de desenvolvedores e não são desenvolvidos nem mantidos pelo Google. Considere estas precauções ao usar esses recursos:
- Auditoria de segurança:sempre revise cuidadosamente qualquer código, principalmente como ele lida com informações privadas, entrada do usuário e acesso à rede.
- Descontinuação e atualizações:o código da comunidade pode ficar desatualizado ou parar de funcionar com novos recursos do Cloud Run ou versões de IA sem aviso prévio. Verifique a data da última atualização e se ele ainda está sendo mantido ativamente.
- Eficiência de custo:embora essas configurações geralmente busquem um custo baixo, elas podem não seguir as práticas recomendadas do Google para economizar dinheiro em projetos ativos. Monitore seu faturamento de perto.
- Conformidade com a licença:entenda e siga a licença de código aberto de qualquer código ou biblioteca da comunidade que você adicionar ao aplicativo.
- Teste antes de implantar:verifique todas as configurações importantes e teste as soluções da comunidade em um ambiente de teste antes de usá-las em projetos ativos.
Filtrar por categoria ou palavra-chave
Use os filtros ou a caixa de pesquisa para encontrar conteúdo por categoria ou palavra-chave.
| Categorias | Título e descrição | Data de publicação |
|---|---|---|
|
Blog
Gemma 3
|
Pratique com o Gemma 3 no Google Cloud Esta postagem do blog anuncia dois codelabs que mostram aos desenvolvedores como implantar o Gemma 3 no Google Cloud usando o Cloud Run para uma abordagem sem servidor ou o Google Kubernetes Engine (GKE) para uma abordagem de plataforma. |
2025-11-17 |
|
Blog
Ferramentas
|
Automação fácil de fluxos de trabalho de IA: implante o n8n no Cloud Run Esta postagem do blog explica como implantar agentes usando a ferramenta de automação de fluxo de trabalho n8n no Cloud Run para criar fluxos de trabalho com tecnologia de IA e integrar a ferramentas como o Google Workspace. |
2025-11-07 |
|
Blog
Extensões
Gemini
|
Automatize a implantação de apps e a análise de segurança com as novas extensões da CLI do Gemini Esta postagem no blog anuncia a extensão do Cloud Run na CLI do Gemini para simplificar a implantação de aplicativos com um único comando /deploy. |
2025-09-10 |
|
Blog
Extensões
Gemini
|
Esta postagem no blog anuncia uma colaboração entre o Google Cloud e o Docker que simplifica a implantação de aplicativos complexos de IA. Ela permite que os desenvolvedores usem o comando gcloud run compose up para implantar os arquivos compose.yaml diretamente no Cloud Run. |
2025-07-10 |
|
Blog
MCP
|
Criar e implantar um servidor MCP remoto no Google Cloud Run em menos de 10 minutos Esta postagem do blog oferece um guia detalhado para criar e implantar um servidor MCP (Model Context Protocol) remoto e seguro no Google Cloud Run em menos de 10 minutos usando o FastMCP e, em seguida, testá-lo em um cliente local. |
2025-06-07 |
|
Agentes
AI Studio
Blog
MCP
|
Nesta postagem do blog, apresentamos maneiras de simplificar as implantações de IA com implantação com um clique do AI Studio no Cloud Run, implantação direta de modelos do Gemma 3 e um servidor MCP para implantações baseadas em agentes. |
2025-05-20 |
|
Agentes
Blog
Casos de uso
|
Este artigo mostra como o CodeRabbit, uma ferramenta de revisão de código de IA, usa o Cloud Run para criar uma plataforma escalonável e segura para executar código não confiável, reduzindo pela metade o tempo de revisão de código e os bugs. |
2025-04-22 |
|
Blog
Vertex AI
|
Crie apps de IA generativa compartilháveis em menos de 60 segundos com a Vertex AI e o Cloud Run Este artigo apresenta um recurso da Vertex AI que permite a implantação com um clique de aplicativos da Web no Cloud Run. Use comandos de IA generativa para simplificar o processo de transformar um conceito de IA generativa em um protótipo compartilhável. |
2025-02-20 |
|
Blog
Implantação
|
Como implantar IA sem servidor com o Gemma 3 no Cloud Run Nesta postagem do blog, anunciamos o Gemma 3, uma família de modelos de IA abertos e leves, e explicamos como implantá-los no Cloud Run para aplicativos de IA sem servidor escalonáveis e econômicos. |
2025-03-12 |
|
Blog
GPUs
Inferência
RAG
Vertex AI
|
Desbloquear a inferência como um serviço com o Cloud Run e a Vertex AI Esta postagem do blog explica como os desenvolvedores podem acelerar o desenvolvimento de aplicativos de IA generativa adotando um modelo de inferência como serviço no Cloud Run. Isso permite hospedar e escalonar LLMs com suporte a GPU e integrá-los à geração aumentada de recuperação (RAG, na sigla em inglês) para respostas específicas do contexto. |
2025-02-20 |
|
Arquitetura
RAG
Vertex AI
|
Infraestrutura de RAG para IA generativa usando a Vertex AI e a Vector Search Este documento apresenta uma arquitetura de referência para criar um aplicativo de IA generativa com geração aumentada por recuperação (RAG) no Google Cloud, usando a Pesquisa de vetor para correspondência de similaridade em grande escala e a Vertex AI para gerenciar embeddings e modelos. |
2025-03-07 |
|
Agentes
Antigravity
Vídeo
|
Pare de programar, comece a arquitetar: Google Antigravity + Cloud Run Este vídeo apresenta o ambiente de desenvolvimento integrado (IDE) autônomo do Google, o Antigravity. Use-o para criar e implantar um app de pilha completa no Cloud Run do zero. Assista a este vídeo para escrever uma ficha técnica da IA, forçar o uso do Node.js moderno (sem etapas de build!) e ver a depuração autônoma de uma incompatibilidade de porta durante a implantação, tocando em um arquivo de configuração. |
2025-12-08 |
|
Agentes
GPUs
Ollama
Vídeo
|
Este agente de IA é executado no Cloud Run + GPUs NVIDIA Este vídeo mostra como criar um aplicativo de agente de IA real em uma GPU NVIDIA sem servidor. Confira uma demonstração de um agente de saúde inteligente que usa modelos de código aberto, como o Gemma com o Ollama no Cloud Run, e o LangGraph para criar um fluxo de trabalho multiagente (RAG + ferramentas). |
2025-11-13 |
|
MCP
Vídeo
|
Potencialize seus agentes de IA com ferramentas do MCP no Google Cloud Run Este vídeo apresenta o MCP (Protocolo de Contexto de Modelo) e como ele facilita a vida dos desenvolvedores de agentes de IA. Confira um tutorial sobre como criar um servidor MCP usando o FastMCP e implantar um agente do ADK no Cloud Run. Saiba como o código processa a autenticação de serviço para serviço usando os tokens OIDC integrados do Cloud Run. |
2025-11-06 |
|
Model Armor
Segurança
Vídeo
|
Tentamos fazer um jailbreak na nossa IA, mas o Model Armor impediu Este vídeo mostra um exemplo de como usar o Model Armor do Google para bloquear ameaças com uma chamada de API. |
2025-10-30 |
|
Comparativo de mercado
Vertex AI
Vídeo
|
Não adivinhe: como fazer um comparativo de mercado dos seus comandos de IA Este vídeo mostra como usar a Vertex AI para criar aplicativos de IA generativa confiáveis com as ferramentas do Google Cloud. Os desenvolvedores vão aprender a usar as ferramentas do Google Cloud para prototipagem rápida, receber números concretos com comparativos de mercado baseados em dados e, por fim, criar um pipeline de CI/CD automatizado para controle de qualidade real, evitando armadilhas comuns. |
2025-10-23 |
|
ADK
Multiagente
Vídeo
|
Como criar um app multiagente com o ADK e o Gemini Este vídeo mostra como criar um app usando o ADK (Agent Development Toolkit, em inglês) do Google, que ajuda a refinar e colaborar com conteúdo. Saiba como os multiagentes com estado funcionam melhor do que um único agente. |
2025-10-16 |
|
Gemini
Vídeo
|
Criar um app de IA que assiste vídeos usando o Gemini Este vídeo mostra como criar um app que assiste e entende vídeos do YouTube usando o Gemini 2.5 Pro. Use comandos inteligentes para personalizar a saída do app em postagens de blog, resumos, testes e muito mais. Este vídeo mostra como integrar o Gemini para gerar conteúdo de texto e imagens de cabeçalho com base em entradas de vídeo, discute considerações de custo e explica como processar vídeos mais longos com solicitações em lote. |
2025-10-06 |
|
GenAI
Vídeo
|
Vamos criar um app de IA generativa no Cloud Run Este vídeo mostra a arquitetura e o código, usando a IA para ajudar em todas as etapas. |
2025-07-17 |
|
Agentes
Firebase
Vídeo
|
Crie agentes de IA com o Cloud Run e o Firebase Genkit Este vídeo mostra como criar agentes de IA com o Cloud Run e o Firebase Genkit, um criador de agentes de IA sem servidor. |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLMs
Vídeo
|
Este vídeo mostra como criar rapidamente um aplicativo de suporte técnico usando o AI Studio, o Cloud Functions e o Firebase Hosting. Saiba como aproveitar os modelos de linguagem grandes (LLMs) e confira um exemplo prático de integração da IA a um aplicativo da Web tradicional. |
2025-06-19 |
|
ADK
Agentes
Frameworks
LangGraph
Vertex AI
Vídeo
|
Como criar agentes de IA no Google Cloud Este vídeo mostra como criar e implantar agentes de IA usando o Cloud Run e a Vertex AI. Conheça conceitos importantes, como chamada de função, agnosticismo de modelo e o uso de frameworks como o LangGraph e o Kit de Desenvolvimento de Agentes (ADK). |
2025-05-21 |
|
Modelos de IA
GPUs
Ollama
Vídeo
|
Como hospedar o DeepSeek com GPUs do Cloud Run em três etapas Este vídeo mostra como simplificar a hospedagem do modelo de IA DeepSeek com GPUs do Cloud Run. Saiba como implantar e gerenciar modelos de linguagem grandes (LLMs) no Google Cloud com três comandos. Assista e descubra os recursos do Cloud Run e da ferramenta de linha de comando Ollama, que permitem aos desenvolvedores operar aplicativos de IA rapidamente com escalonamento e alocação de recursos sob demanda. |
2025-04-24 |
|
Chamadas de função
Gemini
Vídeo
|
Como usar a chamada de função do Gemini com o Cloud Run Este vídeo mostra o poder da chamada de função do Gemini e ensina a integrar APIs externas aos seus aplicativos de IA. Crie um app de clima que aproveita o entendimento de linguagem natural do Gemini para processar solicitações do usuário e buscar dados de clima de uma API externa, fornecendo um exemplo prático de chamada de função em ação. |
2025-01-23 |
|
Geração de imagens
Vertex AI
Vídeo
|
Texto para imagem com a Vertex AI do Google Cloud no Cloud Run Este vídeo mostra como criar um app de geração de imagens usando a Vertex AI no Google Cloud. Com o modelo de geração de imagens da Vertex AI, os desenvolvedores podem criar recursos visuais incríveis sem precisar de infraestrutura complexa ou gerenciamento de modelos. |
2025-01-16 |
|
GPUs
Ollama
Vídeo
|
Este vídeo explica como usar o Ollama para implantar facilmente modelos de linguagem grandes no Cloud Run com GPUs para uma implantação de modelo de IA escalonável e eficiente na nuvem. |
2024-12-02 |
|
Proteção de dados
Segurança
Vídeo
|
Como proteger dados sensíveis em apps de IA Este vídeo mostra como proteger dados sensíveis em aplicativos de IA. Conheça os principais conceitos, práticas recomendadas e ferramentas para proteger dados durante todo o ciclo de vida da IA. |
2024-11-21 |
|
LangChain
RAG
Vídeo
|
RAG com LangChain no Google Cloud Este vídeo mostra como aumentar a acurácia dos seus aplicativos de IA usando a geração aumentada de recuperação (RAG). Crie um aplicativo da Web que aproveita o poder da RAG com o LangChain, uma técnica que torna as respostas de IA mais precisas. |
2024-11-07 |
|
Janela de comando grande
Ajuste de modelos
RAG
Vídeo
|
RAG x ajuste de modelo x janela de comando grande Este vídeo aborda os três principais métodos para integrar seus dados em aplicativos de IA: comandos com janelas de contexto longas, geração aumentada de recuperação (RAG) e ajuste de modelo. Neste episódio do Serverless Expeditions, saiba mais sobre os pontos fortes, as limitações e os casos de uso ideais de cada abordagem para tomar decisões informadas sobre seus projetos de IA. |
2024-11-14 |
|
Engenharia de comando
Vídeo
|
Engenharia de comando para desenvolvedores Este vídeo mostra como usar a engenharia de comandos para melhorar a qualidade das respostas de IA. Assista ao vídeo para saber como ter respostas mais precisas e relevantes da IA generativa com técnicas de comandos de linha de raciocínio, poucos exemplos e vários exemplos. |
2024-10-31 |
|
Modelos de IA
GPUs
LLMs
Vídeo
|
Como implantar um LLM com tecnologia de GPU no Cloud Run Este vídeo mostra como implantar seu próprio modelo de linguagem grande (LLM) com tecnologia de GPU no Cloud Run. Este vídeo mostra como pegar um modelo de código aberto, como o Gemma, e implantá-lo como um serviço escalonável e sem servidor com aceleração de GPU. |
2024-10-06 |
|
GPUs
LLMs
Ollama
Vídeo
|
Este vídeo mostra uma demonstração da implantação do Gemma 2 do Google, um modelo de linguagem grande de código aberto, usando o Ollama no Cloud Run. |
2024-10-03 |
|
Gemini
LLMs
Vídeo
|
Crie apps de chat com a IA no Google Cloud Este vídeo mostra como criar um app de chat com um modelo de linguagem grande (LLM) no Gemini. |
2024-08-29 |
|
Multimodal
Vertex AI
Vídeo
|
Este vídeo mostra uma demonstração de como usar a Vertex AI para criar um aplicativo multimodal que processa vídeo, áudio e texto para criar saída. |
2024-08-15 |
|
Modelos de IA
Vertex AI
Vídeo
|
Como usar a IA generativa sem servidor | Google Vertex AI Este vídeo mostra como criar e implantar apps de IA generativa extremamente rápidos usando o Vertex AI Studio, o Cloud Run e modelos de IA generativa. |
2024-02-22 |
|
Codelab
Ferramentas
|
Como implantar e executar o n8n no Google Cloud Run Neste codelab, mostramos como implantar uma instância pronta para produção da ferramenta de automação de fluxo de trabalho n8n no Cloud Run, com um banco de dados do Cloud SQL para persistência e o Secret Manager para dados sensíveis. |
2025-11-20 |
|
Codelab
GPUs
LLM
|
Como executar a inferência de LLM em GPUs do Cloud Run com vLLM e o SDK do Python da OpenAI Neste codelab, mostramos como implantar o modelo ajustado por instrução Gemma 2 2b do Google no Cloud Run com GPUs, usando o vLLM como um mecanismo de inferência e o SDK do Python da OpenAI para realizar a conclusão de frases. |
2025-11-13 |
|
ADK
Agentes
Codelab
|
Implantar, gerenciar e observar o agente do ADK no Cloud Run Neste codelab, você vai aprender a implantar, gerenciar e monitorar um agente avançado criado com o Kit de Desenvolvimento de Agente (ADK) no Cloud Run. |
2025-11-12 |
|
Codelab
CLI do Gemini
MCP
|
Como implantar um servidor MCP seguro no Cloud Run Neste codelab, você vai aprender a implantar um servidor seguro do Protocolo de Contexto de Modelo (MCP) no Cloud Run e se conectar a ele pela CLI do Gemini. |
2025-10-28 |
|
ADK
Agentes
Codelab
MCP
|
Criar e implantar um agente do ADK que usa um servidor MCP no Cloud Run Este codelab mostra como criar e implantar um agente de IA que usa ferramentas com o Kit de Desenvolvimento de Agente (ADK). O agente se conecta a um servidor MCP remoto para as ferramentas dele e é implantado como um contêiner no Cloud Run. |
2025-10-27 |
|
Modelos de IA
Jobs do Cloud Run
Codelab
Ajuste de modelos
|
Como ajustar um LLM usando jobs do Cloud Run Este codelab fornece um guia explicativo sobre como usar jobs do Cloud Run com GPUs para ajustar um modelo do Gemma 3 no conjunto de dados Text2Emoji e disponibilizar o modelo resultante em um serviço do Cloud Run com vLLM. |
2025-10-21 |
|
Inferência em lote
Jobs do Cloud Run
Codelab
|
Como executar a inferência em lote em jobs do Cloud Run Este codelab demonstra como usar um job do Cloud Run com tecnologia de GPU para executar a inferência em lote em um modelo Llama 3.2-1b e gravar os resultados diretamente em um bucket do Cloud Storage. |
2025-10-21 |
|
ADK
Agentes
Codelab
GPUs
LLMs
MCP
|
Laboratório 3: do protótipo à Production: implante o agente do ADK no Cloud Run com GPU Neste codelab, mostramos como implantar um agente do Kit de desenvolvimento de agentes (ADK, na sigla em inglês) pronto para produção com um back-end do Gemma acelerado por GPU no Cloud Run. O codelab aborda implantação, integração e testes de desempenho. |
2025-10-03 |
|
Agentes
Codelab
|
Este codelab demonstra como implantar um aplicativo de duas camadas no Cloud Run, consistindo em um front-end do Gradio e um back-end do agente ADK, com foco na implementação de uma comunicação segura e autenticada entre serviços. |
2025-09-29 |
|
Codelab
Gemini
|
Como implantar um app de chatbot do FastAPI no Cloud Run usando o Gemini Neste codelab, mostramos como implantar um app de chatbot do FastAPI no Cloud Run. |
2025-04-02 |
|
Cloud Run functions
Codelab
LLMs
|
Como hospedar um LLM em um sidecar para uma função do Cloud Run Neste codelab, mostramos como hospedar um modelo gemma3:4b em um sidecar para uma função do Cloud Run. |
2025-03-27 |
|
Comunidade
Segurança
|
Chame seu serviço do Cloud Run com segurança de qualquer lugar Este artigo fornece um exemplo de código em Python que adquire um token de identidade para chamar com segurança um serviço autenticado do Cloud Run em qualquer ambiente. O exemplo usa Application Default Credentials (ADC) para autenticar a chamada. |
2025-10-15 |
|
Modelos de IA
Comunidade
RAG
|
IA sem servidor: EmbeddingGemma com o Cloud Run Este artigo oferece um guia detalhado sobre como conteinerizar e implantar o modelo EmbeddingGemma no Cloud Run com GPUs e, em seguida, usá-lo para criar um aplicativo RAG. |
2025-09-24 |
|
Comunidade
Segurança
|
Cadeia de confiança para IA: proteção da arquitetura do MCP Toolbox no Cloud Run Este artigo desconstrói um aplicativo simples de reserva de hotel criado no Google Cloud. Ele demonstra um modelo de segurança robusto de confiança zero usando identidades de serviço e mostra como uma cadeia de confiança segura é estabelecida do usuário final até o banco de dados. |
2025-09-03 |
|
Modelos de IA
Comunidade
Conteinerização
Docker
Ollama
RAG
|
IA sem servidor: incorporações do Qwen3 com o Cloud Run Este artigo oferece um tutorial sobre como implantar o modelo de incorporação Qwen3 no Cloud Run com GPUs. O artigo também aborda a contêinerização com Docker e Ollama e fornece um exemplo de como usar em um aplicativo RAG. |
2025-08-20 |
|
Arquitetura
Comunidade
LLMs
|
Ainda empacotando modelos de IA em contêineres? Faça isso no Cloud Run Este artigo defende uma arquitetura mais eficiente e escalonável para veicular modelos de linguagem grandes (LLMs) no Cloud Run. Para isso, ele desacopla os arquivos de modelo do contêiner do aplicativo e usa o Cloud Storage FUSE. |
2025-08-11 |
|
Modelos de IA
Comunidade
|
Como criar um gerador de podcasts com tecnologia de IA usando o Gemini e o Cloud Run Este artigo detalha como criar um gerador de podcasts sem servidor com tecnologia de IA que usa o Gemini para resumo de conteúdo e o Cloud Run. O exemplo orquestra o pipeline automatizado para gerar e entregar briefings de áudio diários de feeds RSS. |
2025-08-11 |
|
Comunidade
MCP
|
Potencialize seus servidores MCP com o Google Cloud Run Este artigo explica a finalidade do Protocolo de Contexto de Modelo (MCP) e oferece um tutorial sobre como criar e implantar um servidor MCP no Cloud Run para expor recursos como ferramentas para aplicativos de IA. |
2025-07-09 |
|
Comunidade
Modelos de ML
Monitoring
|
Implantação e monitoramento de modelos de ML com o Cloud Run: leve, escalonável e econômico Este artigo explica como implantar, monitorar e escalonar automaticamente um modelo de machine learning no Cloud Run, usando uma pilha de monitoramento leve com serviços do Google Cloud para acompanhar o desempenho e controlar os custos. |
2025-05-29 |
|
Modelos de IA
AI Studio
Comunidade
LLMs
|
Como implantar o Gemma diretamente do AI Studio no Cloud Run Este artigo oferece um tutorial detalhado sobre como usar um modelo Gemma do AI Studio, adaptar o código dele para produção e implantá-lo como um aplicativo da Web em contêineres no Cloud Run. |
2025-05-29 |
|
ADK
Agentes
Comunidade
MCP
|
A tríade da arquitetura de agentes: ADK, MCP e Cloud Run Este artigo demonstra como criar uma arquitetura de agente de IA configurando um fluxo de trabalho do Kit de desenvolvimento de agentes (ADK, na sigla em inglês) que se comunica com um servidor do Protocolo de Contexto de Modelo (MCP, na sigla em inglês) hospedado no Cloud Run para gerenciar reservas de voos. |
2025-05-27 |
|
A2A
Agentes
Comunidade
Frameworks
Casos de uso
|
Como usar o protocolo Agent2Agent (A2A) com o caso de uso do concierge de compras no Cloud Run Este artigo explica o protocolo Agent2Agent (A2A) e demonstra o uso dele com um aplicativo de concierge de compras. O app do Cloud Run contém vários agentes de IA, criados com diferentes frameworks, que colaboram entre si para atender ao pedido de um usuário. |
2025-05-15 |
|
Modelos de IA
Automation
CI/CD
Comunidade
GitHub
|
Como automatizar a implantação de modelos de ML com as ações do GitHub e o Cloud Run Este artigo é um guia completo sobre como criar um pipeline de CI/CD com o GitHub Actions para automatizar a criação e a implantação de modelos de machine learning como serviços em contêineres no Cloud Run. |
2025-05-08 |
|
Comunidade
LLMs
Segurança
|
Como criar soluções de IA soberana com o Google Cloud: Cloud Run Este artigo fornece um guia detalhado sobre como criar e implantar uma solução de IA soberana no Google Cloud usando os controles de soberania dos parceiros. Os exemplos executam um modelo da Gemma no Cloud Run, garantindo a residência de dados e a conformidade com as regulamentações europeias. |
2025-04-03 |
|
Comunidade
LLMs
|
Do zero ao Deepseek no Cloud Run durante meu trajeto da manhã Neste artigo, mostramos como implantar rapidamente o modelo Deepseek R1 no Cloud Run com GPUs usando o Ollama durante um trajeto matinal. Este artigo aborda temas avançados, como incorporar o modelo no contêiner, fazer testes A/B com divisão de tráfego e adicionar uma UI da Web com um contêiner sidecar. |
2025-02-11 |
|
Comunidade
LLMs
Ollama
|
Como executar (qualquer) LLM aberto usando o Ollama no Google Cloud Run [etapa a etapa] Neste artigo, mostramos como hospedar qualquer LLM aberto, como o Gemma 2, no Google Cloud Run usando o Ollama. O artigo também inclui instruções para criar um bucket do Cloud Storage para persistência do modelo e teste da implantação. |
2025-01-20 |
|
Comunidade
Modelos de ML
|
Implantação de modelos de machine learning sem servidor com GPUs usando o Google Cloud: Cloud Run Este artigo apresenta um guia explicativo para implantar um modelo de machine learning (ML) com suporte a GPU no Cloud Run. O artigo aborda tudo, desde a configuração do projeto e a contêinerização até a implantação automatizada com o Cloud Build e os testes com curl e JavaScript. |
2025-01-17 |