Cookbook de IA do Cloud Run

Nesta página, você encontra uma lista selecionada de recursos para ajudar a criar e implantar soluções de IA no Cloud Run.

O Cloud Run é uma plataforma de aplicativos totalmente gerenciada para executar seu código, função ou contêiner na infraestrutura altamente escalonável do Google. Você pode usar o Cloud Run para executar várias soluções de IA, como endpoints de inferência de IA, APIs de modelos generativos, pipelines completos de geração aumentada de recuperação (RAG) e muito mais.

Use as categorias e os links abaixo para navegar por guias oficiais, guias de início rápido e conteúdo valioso da comunidade. Para documentação e recomendações do Cloud Run, consulte Conheça as soluções de IA no Cloud Run.

Observação sobre recursos da comunidade

O conteúdo rotulado como "Comunidade" são recursos selecionados da comunidade de desenvolvedores e não são desenvolvidos nem mantidos pelo Google. Considere estas precauções ao usar esses recursos:

  • Auditoria de segurança:sempre revise cuidadosamente qualquer código, principalmente como ele lida com informações privadas, entrada do usuário e acesso à rede.
  • Descontinuação e atualizações:o código da comunidade pode ficar desatualizado ou parar de funcionar com novos recursos do Cloud Run ou versões de IA sem aviso prévio. Verifique a data da última atualização e se ele ainda está sendo mantido ativamente.
  • Eficiência de custo:embora essas configurações geralmente busquem um custo baixo, elas podem não seguir as práticas recomendadas do Google para economizar dinheiro em projetos ativos. Monitore seu faturamento de perto.
  • Conformidade com a licença:entenda e siga a licença de código aberto de qualquer código ou biblioteca da comunidade que você adicionar ao aplicativo.
  • Teste antes de implantar:verifique todas as configurações importantes e teste as soluções da comunidade em um ambiente de teste antes de usá-las em projetos ativos.

Filtrar por categoria ou palavra-chave

Use os filtros ou a caixa de pesquisa para encontrar conteúdo por categoria ou palavra-chave.


Filtrar por:
Categorias Título e descrição Data de publicação
Blog
Gemma 3

Pratique com o Gemma 3 no Google Cloud

Esta postagem do blog anuncia dois codelabs que mostram aos desenvolvedores como implantar o Gemma 3 no Google Cloud usando o Cloud Run para uma abordagem sem servidor ou o Google Kubernetes Engine (GKE) para uma abordagem de plataforma.

2025-11-17
Blog
Ferramentas

Automação fácil de fluxos de trabalho de IA: implante o n8n no Cloud Run

Esta postagem do blog explica como implantar agentes usando a ferramenta de automação de fluxo de trabalho n8n no Cloud Run para criar fluxos de trabalho com tecnologia de IA e integrar a ferramentas como o Google Workspace.

2025-11-07
Blog
Extensões
Gemini

Automatize a implantação de apps e a análise de segurança com as novas extensões da CLI do Gemini

Esta postagem no blog anuncia a extensão do Cloud Run na CLI do Gemini para simplificar a implantação de aplicativos com um único comando /deploy.

2025-09-10
Blog
Extensões
Gemini

Do localhost ao lançamento: simplifique a implantação de apps de IA com o Cloud Run e o Docker Compose

Esta postagem no blog anuncia uma colaboração entre o Google Cloud e o Docker que simplifica a implantação de aplicativos complexos de IA. Ela permite que os desenvolvedores usem o comando gcloud run compose up para implantar os arquivos compose.yaml diretamente no Cloud Run.

2025-07-10
Blog
MCP

Criar e implantar um servidor MCP remoto no Google Cloud Run em menos de 10 minutos

Esta postagem do blog oferece um guia detalhado para criar e implantar um servidor MCP (Model Context Protocol) remoto e seguro no Google Cloud Run em menos de 10 minutos usando o FastMCP e, em seguida, testá-lo em um cliente local.

2025-06-07
Agentes
AI Studio
Blog
MCP

Implantação de IA facilitada: implante seu app no Cloud Run pelo AI Studio ou por agentes de IA compatíveis com o MCP

Nesta postagem do blog, apresentamos maneiras de simplificar as implantações de IA com implantação com um clique do AI Studio no Cloud Run, implantação direta de modelos do Gemma 3 e um servidor MCP para implantações baseadas em agentes.

2025-05-20
Agentes
Blog
Casos de uso

Fusão 50% mais rápida e 50% menos bugs: como o CodeRabbit criou o agente de revisão de código de IA com o Google Cloud Run

Este artigo mostra como o CodeRabbit, uma ferramenta de revisão de código de IA, usa o Cloud Run para criar uma plataforma escalonável e segura para executar código não confiável, reduzindo pela metade o tempo de revisão de código e os bugs.

2025-04-22
Blog
Vertex AI

Crie apps de IA generativa compartilháveis em menos de 60 segundos com a Vertex AI e o Cloud Run

Este artigo apresenta um recurso da Vertex AI que permite a implantação com um clique de aplicativos da Web no Cloud Run. Use comandos de IA generativa para simplificar o processo de transformar um conceito de IA generativa em um protótipo compartilhável.

2025-02-20
Blog
Implantação

Como implantar IA sem servidor com o Gemma 3 no Cloud Run

Nesta postagem do blog, anunciamos o Gemma 3, uma família de modelos de IA abertos e leves, e explicamos como implantá-los no Cloud Run para aplicativos de IA sem servidor escalonáveis e econômicos.

2025-03-12
Blog
GPUs
Inferência
RAG
Vertex AI

Desbloquear a inferência como um serviço com o Cloud Run e a Vertex AI

Esta postagem do blog explica como os desenvolvedores podem acelerar o desenvolvimento de aplicativos de IA generativa adotando um modelo de inferência como serviço no Cloud Run. Isso permite hospedar e escalonar LLMs com suporte a GPU e integrá-los à geração aumentada de recuperação (RAG, na sigla em inglês) para respostas específicas do contexto.

2025-02-20
Arquitetura
RAG
Vertex AI

Infraestrutura de RAG para IA generativa usando a Vertex AI e a Vector Search

Este documento apresenta uma arquitetura de referência para criar um aplicativo de IA generativa com geração aumentada por recuperação (RAG) no Google Cloud, usando a Pesquisa de vetor para correspondência de similaridade em grande escala e a Vertex AI para gerenciar embeddings e modelos.

2025-03-07
Agentes
Antigravity
Vídeo

Pare de programar, comece a arquitetar: Google Antigravity + Cloud Run

Este vídeo apresenta o ambiente de desenvolvimento integrado (IDE) autônomo do Google, o Antigravity. Use-o para criar e implantar um app de pilha completa no Cloud Run do zero. Assista a este vídeo para escrever uma ficha técnica da IA, forçar o uso do Node.js moderno (sem etapas de build!) e ver a depuração autônoma de uma incompatibilidade de porta durante a implantação, tocando em um arquivo de configuração.

2025-12-08
Agentes
GPUs
Ollama
Vídeo

Este agente de IA é executado no Cloud Run + GPUs NVIDIA

Este vídeo mostra como criar um aplicativo de agente de IA real em uma GPU NVIDIA sem servidor. Confira uma demonstração de um agente de saúde inteligente que usa modelos de código aberto, como o Gemma com o Ollama no Cloud Run, e o LangGraph para criar um fluxo de trabalho multiagente (RAG + ferramentas).

2025-11-13
MCP
Vídeo

Potencialize seus agentes de IA com ferramentas do MCP no Google Cloud Run

Este vídeo apresenta o MCP (Protocolo de Contexto de Modelo) e como ele facilita a vida dos desenvolvedores de agentes de IA. Confira um tutorial sobre como criar um servidor MCP usando o FastMCP e implantar um agente do ADK no Cloud Run. Saiba como o código processa a autenticação de serviço para serviço usando os tokens OIDC integrados do Cloud Run.

2025-11-06
Model Armor
Segurança
Vídeo

Tentamos fazer um jailbreak na nossa IA, mas o Model Armor impediu

Este vídeo mostra um exemplo de como usar o Model Armor do Google para bloquear ameaças com uma chamada de API.

2025-10-30
Comparativo de mercado
Vertex AI
Vídeo

Não adivinhe: como fazer um comparativo de mercado dos seus comandos de IA

Este vídeo mostra como usar a Vertex AI para criar aplicativos de IA generativa confiáveis com as ferramentas do Google Cloud. Os desenvolvedores vão aprender a usar as ferramentas do Google Cloud para prototipagem rápida, receber números concretos com comparativos de mercado baseados em dados e, por fim, criar um pipeline de CI/CD automatizado para controle de qualidade real, evitando armadilhas comuns.

2025-10-23
ADK
Multiagente
Vídeo

Como criar um app multiagente com o ADK e o Gemini

Este vídeo mostra como criar um app usando o ADK (Agent Development Toolkit, em inglês) do Google, que ajuda a refinar e colaborar com conteúdo. Saiba como os multiagentes com estado funcionam melhor do que um único agente.

2025-10-16
Gemini
Vídeo

Criar um app de IA que assiste vídeos usando o Gemini

Este vídeo mostra como criar um app que assiste e entende vídeos do YouTube usando o Gemini 2.5 Pro. Use comandos inteligentes para personalizar a saída do app em postagens de blog, resumos, testes e muito mais. Este vídeo mostra como integrar o Gemini para gerar conteúdo de texto e imagens de cabeçalho com base em entradas de vídeo, discute considerações de custo e explica como processar vídeos mais longos com solicitações em lote.

2025-10-06
GenAI
Vídeo

Vamos criar um app de IA generativa no Cloud Run

Este vídeo mostra a arquitetura e o código, usando a IA para ajudar em todas as etapas.

2025-07-17
Agentes
Firebase
Vídeo

Crie agentes de IA com o Cloud Run e o Firebase Genkit

Este vídeo mostra como criar agentes de IA com o Cloud Run e o Firebase Genkit, um criador de agentes de IA sem servidor.

2025-07-10
AI Studio
Firebase
Gemini
LLMs
Vídeo

Cloud AI: é apenas uma API

Este vídeo mostra como criar rapidamente um aplicativo de suporte técnico usando o AI Studio, o Cloud Functions e o Firebase Hosting. Saiba como aproveitar os modelos de linguagem grandes (LLMs) e confira um exemplo prático de integração da IA a um aplicativo da Web tradicional.

2025-06-19
ADK
Agentes
Frameworks
LangGraph
Vertex AI
Vídeo

Como criar agentes de IA no Google Cloud

Este vídeo mostra como criar e implantar agentes de IA usando o Cloud Run e a Vertex AI. Conheça conceitos importantes, como chamada de função, agnosticismo de modelo e o uso de frameworks como o LangGraph e o Kit de Desenvolvimento de Agentes (ADK).

2025-05-21
Modelos de IA
GPUs
Ollama
Vídeo

Como hospedar o DeepSeek com GPUs do Cloud Run em três etapas

Este vídeo mostra como simplificar a hospedagem do modelo de IA DeepSeek com GPUs do Cloud Run. Saiba como implantar e gerenciar modelos de linguagem grandes (LLMs) no Google Cloud com três comandos. Assista e descubra os recursos do Cloud Run e da ferramenta de linha de comando Ollama, que permitem aos desenvolvedores operar aplicativos de IA rapidamente com escalonamento e alocação de recursos sob demanda.

2025-04-24
Chamadas de função
Gemini
Vídeo

Como usar a chamada de função do Gemini com o Cloud Run

Este vídeo mostra o poder da chamada de função do Gemini e ensina a integrar APIs externas aos seus aplicativos de IA. Crie um app de clima que aproveita o entendimento de linguagem natural do Gemini para processar solicitações do usuário e buscar dados de clima de uma API externa, fornecendo um exemplo prático de chamada de função em ação.

2025-01-23
Geração de imagens
Vertex AI
Vídeo

Texto para imagem com a Vertex AI do Google Cloud no Cloud Run

Este vídeo mostra como criar um app de geração de imagens usando a Vertex AI no Google Cloud. Com o modelo de geração de imagens da Vertex AI, os desenvolvedores podem criar recursos visuais incríveis sem precisar de infraestrutura complexa ou gerenciamento de modelos.

2025-01-16
GPUs
Ollama
Vídeo

Ollama e Cloud Run com GPUs

Este vídeo explica como usar o Ollama para implantar facilmente modelos de linguagem grandes no Cloud Run com GPUs para uma implantação de modelo de IA escalonável e eficiente na nuvem.

2024-12-02
Proteção de dados
Segurança
Vídeo

Como proteger dados sensíveis em apps de IA

Este vídeo mostra como proteger dados sensíveis em aplicativos de IA. Conheça os principais conceitos, práticas recomendadas e ferramentas para proteger dados durante todo o ciclo de vida da IA.

2024-11-21
LangChain
RAG
Vídeo

RAG com LangChain no Google Cloud

Este vídeo mostra como aumentar a acurácia dos seus aplicativos de IA usando a geração aumentada de recuperação (RAG). Crie um aplicativo da Web que aproveita o poder da RAG com o LangChain, uma técnica que torna as respostas de IA mais precisas.

2024-11-07
Janela de comando grande
Ajuste de modelos
RAG
Vídeo

RAG x ajuste de modelo x janela de comando grande

Este vídeo aborda os três principais métodos para integrar seus dados em aplicativos de IA: comandos com janelas de contexto longas, geração aumentada de recuperação (RAG) e ajuste de modelo. Neste episódio do Serverless Expeditions, saiba mais sobre os pontos fortes, as limitações e os casos de uso ideais de cada abordagem para tomar decisões informadas sobre seus projetos de IA.

2024-11-14
Engenharia de comando
Vídeo

Engenharia de comando para desenvolvedores

Este vídeo mostra como usar a engenharia de comandos para melhorar a qualidade das respostas de IA. Assista ao vídeo para saber como ter respostas mais precisas e relevantes da IA generativa com técnicas de comandos de linha de raciocínio, poucos exemplos e vários exemplos.

2024-10-31
Modelos de IA
GPUs
LLMs
Vídeo

Como implantar um LLM com tecnologia de GPU no Cloud Run

Este vídeo mostra como implantar seu próprio modelo de linguagem grande (LLM) com tecnologia de GPU no Cloud Run. Este vídeo mostra como pegar um modelo de código aberto, como o Gemma, e implantá-lo como um serviço escalonável e sem servidor com aceleração de GPU.

2024-10-06
GPUs
LLMs
Ollama
Vídeo

Usar GPUs no Cloud Run

Este vídeo mostra uma demonstração da implantação do Gemma 2 do Google, um modelo de linguagem grande de código aberto, usando o Ollama no Cloud Run.

2024-10-03
Gemini
LLMs
Vídeo

Crie apps de chat com a IA no Google Cloud

Este vídeo mostra como criar um app de chat com um modelo de linguagem grande (LLM) no Gemini.

2024-08-29
Multimodal
Vertex AI
Vídeo

IA multimodal

Este vídeo mostra uma demonstração de como usar a Vertex AI para criar um aplicativo multimodal que processa vídeo, áudio e texto para criar saída.

2024-08-15
Modelos de IA
Vertex AI
Vídeo

Como usar a IA generativa sem servidor | Google Vertex AI

Este vídeo mostra como criar e implantar apps de IA generativa extremamente rápidos usando o Vertex AI Studio, o Cloud Run e modelos de IA generativa.

2024-02-22
Codelab
Ferramentas

Como implantar e executar o n8n no Google Cloud Run

Neste codelab, mostramos como implantar uma instância pronta para produção da ferramenta de automação de fluxo de trabalho n8n no Cloud Run, com um banco de dados do Cloud SQL para persistência e o Secret Manager para dados sensíveis.

2025-11-20
Codelab
GPUs
LLM

Como executar a inferência de LLM em GPUs do Cloud Run com vLLM e o SDK do Python da OpenAI

Neste codelab, mostramos como implantar o modelo ajustado por instrução Gemma 2 2b do Google no Cloud Run com GPUs, usando o vLLM como um mecanismo de inferência e o SDK do Python da OpenAI para realizar a conclusão de frases.

2025-11-13
ADK
Agentes
Codelab

Implantar, gerenciar e observar o agente do ADK no Cloud Run

Neste codelab, você vai aprender a implantar, gerenciar e monitorar um agente avançado criado com o Kit de Desenvolvimento de Agente (ADK) no Cloud Run.

2025-11-12
Codelab
CLI do Gemini
MCP

Como implantar um servidor MCP seguro no Cloud Run

Neste codelab, você vai aprender a implantar um servidor seguro do Protocolo de Contexto de Modelo (MCP) no Cloud Run e se conectar a ele pela CLI do Gemini.

2025-10-28
ADK
Agentes
Codelab
MCP

Criar e implantar um agente do ADK que usa um servidor MCP no Cloud Run

Este codelab mostra como criar e implantar um agente de IA que usa ferramentas com o Kit de Desenvolvimento de Agente (ADK). O agente se conecta a um servidor MCP remoto para as ferramentas dele e é implantado como um contêiner no Cloud Run.

2025-10-27
Modelos de IA
Jobs do Cloud Run
Codelab
Ajuste de modelos

Como ajustar um LLM usando jobs do Cloud Run

Este codelab fornece um guia explicativo sobre como usar jobs do Cloud Run com GPUs para ajustar um modelo do Gemma 3 no conjunto de dados Text2Emoji e disponibilizar o modelo resultante em um serviço do Cloud Run com vLLM.

2025-10-21
Inferência em lote
Jobs do Cloud Run
Codelab

Como executar a inferência em lote em jobs do Cloud Run

Este codelab demonstra como usar um job do Cloud Run com tecnologia de GPU para executar a inferência em lote em um modelo Llama 3.2-1b e gravar os resultados diretamente em um bucket do Cloud Storage.

2025-10-21
ADK
Agentes
Codelab
GPUs
LLMs
MCP

Laboratório 3: do protótipo à Production: implante o agente do ADK no Cloud Run com GPU

Neste codelab, mostramos como implantar um agente do Kit de desenvolvimento de agentes (ADK, na sigla em inglês) pronto para produção com um back-end do Gemma acelerado por GPU no Cloud Run. O codelab aborda implantação, integração e testes de desempenho.

2025-10-03
Agentes
Codelab

Como implantar um app de front-end do Gradio que chama um agente do ADK de back-end, ambos em execução no Cloud Run

Este codelab demonstra como implantar um aplicativo de duas camadas no Cloud Run, consistindo em um front-end do Gradio e um back-end do agente ADK, com foco na implementação de uma comunicação segura e autenticada entre serviços.

2025-09-29
Codelab
Gemini

Como implantar um app de chatbot do FastAPI no Cloud Run usando o Gemini

Neste codelab, mostramos como implantar um app de chatbot do FastAPI no Cloud Run.

2025-04-02
Cloud Run functions
Codelab
LLMs

Como hospedar um LLM em um sidecar para uma função do Cloud Run

Neste codelab, mostramos como hospedar um modelo gemma3:4b em um sidecar para uma função do Cloud Run.

2025-03-27
Comunidade
Segurança

Chame seu serviço do Cloud Run com segurança de qualquer lugar

Este artigo fornece um exemplo de código em Python que adquire um token de identidade para chamar com segurança um serviço autenticado do Cloud Run em qualquer ambiente. O exemplo usa Application Default Credentials (ADC) para autenticar a chamada.

2025-10-15
Modelos de IA
Comunidade
RAG

IA sem servidor: EmbeddingGemma com o Cloud Run

Este artigo oferece um guia detalhado sobre como conteinerizar e implantar o modelo EmbeddingGemma no Cloud Run com GPUs e, em seguida, usá-lo para criar um aplicativo RAG.

2025-09-24
Comunidade
Segurança

Cadeia de confiança para IA: proteção da arquitetura do MCP Toolbox no Cloud Run

Este artigo desconstrói um aplicativo simples de reserva de hotel criado no Google Cloud. Ele demonstra um modelo de segurança robusto de confiança zero usando identidades de serviço e mostra como uma cadeia de confiança segura é estabelecida do usuário final até o banco de dados.

2025-09-03
Modelos de IA
Comunidade
Conteinerização
Docker
Ollama
RAG

IA sem servidor: incorporações do Qwen3 com o Cloud Run

Este artigo oferece um tutorial sobre como implantar o modelo de incorporação Qwen3 no Cloud Run com GPUs. O artigo também aborda a contêinerização com Docker e Ollama e fornece um exemplo de como usar em um aplicativo RAG.

2025-08-20
Arquitetura
Comunidade
LLMs

Ainda empacotando modelos de IA em contêineres? Faça isso no Cloud Run

Este artigo defende uma arquitetura mais eficiente e escalonável para veicular modelos de linguagem grandes (LLMs) no Cloud Run. Para isso, ele desacopla os arquivos de modelo do contêiner do aplicativo e usa o Cloud Storage FUSE.

2025-08-11
Modelos de IA
Comunidade

Como criar um gerador de podcasts com tecnologia de IA usando o Gemini e o Cloud Run

Este artigo detalha como criar um gerador de podcasts sem servidor com tecnologia de IA que usa o Gemini para resumo de conteúdo e o Cloud Run. O exemplo orquestra o pipeline automatizado para gerar e entregar briefings de áudio diários de feeds RSS.

2025-08-11
Comunidade
MCP

Potencialize seus servidores MCP com o Google Cloud Run

Este artigo explica a finalidade do Protocolo de Contexto de Modelo (MCP) e oferece um tutorial sobre como criar e implantar um servidor MCP no Cloud Run para expor recursos como ferramentas para aplicativos de IA.

2025-07-09
Comunidade
Modelos de ML
Monitoring

Implantação e monitoramento de modelos de ML com o Cloud Run: leve, escalonável e econômico

Este artigo explica como implantar, monitorar e escalonar automaticamente um modelo de machine learning no Cloud Run, usando uma pilha de monitoramento leve com serviços do Google Cloud para acompanhar o desempenho e controlar os custos.

2025-05-29
Modelos de IA
AI Studio
Comunidade
LLMs

Como implantar o Gemma diretamente do AI Studio no Cloud Run

Este artigo oferece um tutorial detalhado sobre como usar um modelo Gemma do AI Studio, adaptar o código dele para produção e implantá-lo como um aplicativo da Web em contêineres no Cloud Run.

2025-05-29
ADK
Agentes
Comunidade
MCP

A tríade da arquitetura de agentes: ADK, MCP e Cloud Run

Este artigo demonstra como criar uma arquitetura de agente de IA configurando um fluxo de trabalho do Kit de desenvolvimento de agentes (ADK, na sigla em inglês) que se comunica com um servidor do Protocolo de Contexto de Modelo (MCP, na sigla em inglês) hospedado no Cloud Run para gerenciar reservas de voos.

2025-05-27
A2A
Agentes
Comunidade
Frameworks
Casos de uso

Como usar o protocolo Agent2Agent (A2A) com o caso de uso do concierge de compras no Cloud Run

Este artigo explica o protocolo Agent2Agent (A2A) e demonstra o uso dele com um aplicativo de concierge de compras. O app do Cloud Run contém vários agentes de IA, criados com diferentes frameworks, que colaboram entre si para atender ao pedido de um usuário.

2025-05-15
Modelos de IA
Automation
CI/CD
Comunidade
GitHub

Como automatizar a implantação de modelos de ML com as ações do GitHub e o Cloud Run

Este artigo é um guia completo sobre como criar um pipeline de CI/CD com o GitHub Actions para automatizar a criação e a implantação de modelos de machine learning como serviços em contêineres no Cloud Run.

2025-05-08
Comunidade
LLMs
Segurança

Como criar soluções de IA soberana com o Google Cloud: Cloud Run

Este artigo fornece um guia detalhado sobre como criar e implantar uma solução de IA soberana no Google Cloud usando os controles de soberania dos parceiros. Os exemplos executam um modelo da Gemma no Cloud Run, garantindo a residência de dados e a conformidade com as regulamentações europeias.

2025-04-03
Comunidade
LLMs

Do zero ao Deepseek no Cloud Run durante meu trajeto da manhã

Neste artigo, mostramos como implantar rapidamente o modelo Deepseek R1 no Cloud Run com GPUs usando o Ollama durante um trajeto matinal. Este artigo aborda temas avançados, como incorporar o modelo no contêiner, fazer testes A/B com divisão de tráfego e adicionar uma UI da Web com um contêiner sidecar.

2025-02-11
Comunidade
LLMs
Ollama

Como executar (qualquer) LLM aberto usando o Ollama no Google Cloud Run [etapa a etapa]

Neste artigo, mostramos como hospedar qualquer LLM aberto, como o Gemma 2, no Google Cloud Run usando o Ollama. O artigo também inclui instruções para criar um bucket do Cloud Storage para persistência do modelo e teste da implantação.

2025-01-20
Comunidade
Modelos de ML

Implantação de modelos de machine learning sem servidor com GPUs usando o Google Cloud: Cloud Run

Este artigo apresenta um guia explicativo para implantar um modelo de machine learning (ML) com suporte a GPU no Cloud Run. O artigo aborda tudo, desde a configuração do projeto e a contêinerização até a implantação automatizada com o Cloud Build e os testes com curl e JavaScript.

2025-01-17