Cloud Run AI Cookbook

이 페이지에서는 Cloud Run에서 AI 솔루션을 빌드하고 배포하는 데 도움이 되는 선별된 리소스 목록을 제공합니다.

Cloud Run은 Google의 확장성이 뛰어난 인프라에서 코드, 함수 또는 컨테이너를 실행하는 완전 관리형 애플리케이션 플랫폼입니다. Cloud Run을 사용하여 AI 추론 엔드포인트, 생성형 모델 API, 전체 검색 증강 생성 (RAG) 파이프라인 등 다양한 AI 솔루션을 실행할 수 있습니다.

아래 카테고리와 링크를 사용하여 공식 가이드, 빠른 시작, 유용한 커뮤니티 콘텐츠를 탐색하세요. Cloud Run 문서 및 권장사항은 Cloud Run에서 AI 솔루션 살펴보기를 참고하세요.

커뮤니티 리소스에 대한 참고사항

'커뮤니티' 라벨이 지정된 콘텐츠는 개발자 커뮤니티의 선택된 리소스이며 Google에서 개발하거나 유지관리하지 않습니다. 이러한 리소스를 사용할 때는 다음 주의사항을 고려하세요.

  • 보안 감사: 항상 코드를 신중하게 검토하세요. 특히 비공개 정보, 사용자 입력, 네트워크 액세스를 처리하는 방식을 검토하세요.
  • 지원 중단 및 업데이트: 커뮤니티 코드가 오래되거나 새 Cloud Run 기능 또는 AI 버전과 호환되지 않을 수 있습니다. 마지막 업데이트 날짜와 아직 활발하게 유지관리되고 있는지 확인합니다.
  • 비용 효율성: 이러한 설정은 종종 저비용을 목표로 하지만 라이브 프로젝트에서 비용을 절감하기 위한 Google의 권장사항을 따르지 않을 수 있습니다. 결제를 면밀히 모니터링하세요.
  • 라이선스 준수: 애플리케이션에 추가하는 커뮤니티 코드 또는 라이브러리의 오픈소스 라이선스를 이해하고 준수해야 합니다.
  • 배포 전 테스트: 실제 프로젝트에 사용하기 전에 테스트 환경에서 모든 중요 설정을 확인하고 커뮤니티 솔루션을 사용해 보세요.

카테고리 또는 키워드로 필터링

필터 또는 검색창을 사용하여 카테고리 또는 키워드로 콘텐츠를 찾습니다.


필터링 기준:
카테고리 제목 및 설명 게시일
블로그
Gemma 3

Google Cloud에서 Gemma 3 직접 사용해 보기

이 블로그 게시물에서는 서버리스 접근 방식을 위한 Cloud Run 또는 플랫폼 접근 방식을 위한 Google Kubernetes Engine (GKE)을 사용하여 Google Cloud에 Gemma 3를 배포하는 방법을 개발자에게 보여주는 두 가지 코드랩을 소개합니다.

2025-11-17
블로그
도구

간편한 AI 워크플로 자동화: Cloud Run에 n8n 배포

이 블로그 게시물에서는 Cloud Run에서 n8n 워크플로 자동화 도구를 사용하여 에이전트를 배포하여 AI 기반 워크플로를 만들고 Google Workspace와 같은 도구와 통합하는 방법을 설명합니다.

2025-11-07
블로그
확장 프로그램
Gemini

새로운 Gemini CLI 확장 프로그램으로 앱 배포 및 보안 분석 자동화

이 블로그 게시물에서는 단일 /deploy 명령어로 애플리케이션 배포를 간소화하는 Gemini CLI의 Cloud Run 확장 프로그램을 소개합니다.

2025-09-10
블로그
확장 프로그램
Gemini

로컬호스트에서 출시까지: Cloud Run과 Docker Compose로 AI 앱 배포를 간소화하세요

이 블로그 게시물에서는 개발자가 gcloud run compose up 명령어를 사용하여 compose.yaml 파일을 Cloud Run에 직접 배포할 수 있도록 하여 복잡한 AI 애플리케이션의 배포를 간소화하는 Google Cloud와 Docker의 협업을 발표합니다.

2025-07-10
블로그
MCP

10분 이내에 원격 MCP 서버를 빌드하고 Google Cloud Run에 배포

이 블로그 게시물에서는 FastMCP를 사용하여 10분 이내에 Google Cloud Run에 안전한 원격 모델 컨텍스트 프로토콜 (MCP) 서버를 빌드하고 배포한 다음 로컬 클라이언트에서 테스트하는 방법을 단계별로 안내합니다.

2025-06-07
에이전트
AI Studio
블로그
MCP

AI 배포 간소화: AI Studio 또는 MCP 호환 AI 에이전트에서 Cloud Run으로 앱 배포

이 블로그 게시물에서는 AI Studio에서 Cloud Run으로의 원클릭 배포, Gemma 3 모델의 직접 배포, 에이전트 기반 배포를 위한 MCP 서버를 통해 AI 배포를 간소화하는 방법을 소개합니다.

2025-05-20
에이전트
블로그
사용 사례

병합 속도 50% 향상, 버그 50% 감소: CodeRabbit이 Google Cloud Run을 사용해 AI 코드 검토 에이전트를 구축한 방법

이 문서에서는 AI 코드 검토 도구인 CodeRabbit이 Cloud Run을 활용하여 신뢰할 수 없는 코드를 실행하기 위한 확장 가능하고 안전한 플랫폼을 구축하여 궁극적으로 코드 검토 시간과 버그를 절반으로 줄이는 방법을 보여줍니다.

2025-04-22
블로그
Vertex AI

Vertex AI 및 Cloud Run으로 60초 이내에 공유 가능한 생성형 AI 앱 만들기

이 도움말에서는 Cloud Run에 웹 애플리케이션을 클릭 한 번으로 배포할 수 있는 Vertex AI의 기능을 소개합니다. 생성형 AI 프롬프트를 사용하여 생성형 AI 개념을 공유 가능한 프로토타입으로 전환하는 프로세스를 간소화하세요.

2025-02-20
블로그
배포

Cloud Run에서 Gemma 3으로 서버리스 AI를 배포하는 방법

이 블로그 게시물에서는 경량 개방형 AI 모델 제품군인 Gemma 3를 발표하고 확장 가능하고 비용 효율적인 서버리스 AI 애플리케이션을 위해 Cloud Run에 이를 배포하는 방법을 설명합니다.

2025-03-12
블로그
GPU
추론
RAG
Vertex AI

Cloud Run 및 Vertex AI를 사용하여 서비스형 추론 잠금 해제

이 블로그 게시물에서는 개발자가 Cloud Run에서 서비스로서의 추론 모델을 채택하여 생성형 AI 애플리케이션 개발을 가속화하는 방법을 설명합니다. 이를 통해 GPU 지원으로 LLM을 호스팅하고 확장할 수 있으며, 컨텍스트별 응답을 위해 검색 증강 생성 (RAG)과 통합할 수 있습니다.

2025-02-20
아키텍처
RAG
Vertex AI

Vertex AI 및 벡터 검색을 사용한 생성형 AI를 위한 RAG 인프라

이 문서에서는 대규모 유사성 매칭을 위해 벡터 검색을 활용하고 임베딩 및 모델 관리를 위해 Vertex AI를 활용하여 Google Cloud에서 검색 증강 생성 (RAG)을 사용하여 생성형 AI 애플리케이션을 빌드하기 위한 참조 아키텍처를 제시합니다.

2025-03-07
에이전트
Antigravity
동영상

코딩을 멈추고 아키텍처 설계 시작: Google Antigravity + Cloud Run

이 동영상에서는 Google의 에이전트 기반 IDE인 Antigravity를 소개합니다. 이를 사용하여 처음부터 풀 스택 앱을 빌드하고 Cloud Run에 배포합니다. 이 동영상을 시청하여 AI의 사양 시트를 작성하고, 최신 Node.js를 사용하도록 강제하고 (빌드 단계 없음), 배포 중에 구성 파일을 터치하여 포트 불일치를 자율적으로 디버그하는 것을 확인하세요.

2025-12-08
에이전트
GPU
Ollama
동영상

이 AI 에이전트는 Cloud Run + NVIDIA GPU에서 실행됩니다

이 동영상에서는 서버리스 NVIDIA GPU에서 실제 AI 에이전트 애플리케이션을 빌드하는 방법을 보여줍니다. Cloud Run에서 Ollama와 함께 Gemma와 같은 오픈소스 모델을 사용하고 LangGraph를 사용하여 다중 에이전트 워크플로 (RAG + 도구)를 빌드하는 스마트 건강 에이전트 데모를 확인하세요.

2025-11-13
MCP
동영상

Google Cloud Run에서 MCP 도구로 AI 에이전트 지원

이 동영상에서는 MCP (모델 컨텍스트 프로토콜)와 MCP가 AI 에이전트 개발자의 생활을 어떻게 더 편리하게 만들어 주는지 소개합니다. FastMCP를 사용하여 MCP 서버를 빌드하고 Cloud Run에 ADK 에이전트를 배포하는 방법을 살펴봅니다. 코드가 Cloud Run의 기본 제공 OIDC 토큰을 사용하여 서비스 간 인증을 처리하는 방법을 확인하세요.

2025-11-06
Model Armor
보안
동영상

Google AI를 탈옥하려고 했지만 Model Armor가 이를 막았습니다

이 동영상은 Google의 Model Armor를 사용하여 API 호출로 위협을 차단하는 예를 보여줍니다.

2025-10-30
벤치마킹
Vertex AI
동영상

추측하지 마세요: AI 프롬프트의 벤치마킹 방법

이 동영상에서는 Vertex AI를 사용하여 Google Cloud 도구를 통해 안정적인 생성형 AI 애플리케이션을 빌드하는 방법을 보여줍니다. 개발자는 일반적인 함정을 피하면서 Google Cloud 도구를 사용하여 신속하게 프로토타입을 제작하고, 데이터 기반 벤치마킹으로 정확한 수치를 얻고, 최종적으로 진정한 품질 관리를 위한 자동화된 CI/CD 파이프라인을 구축하는 방법을 배우게 됩니다.

2025-10-23
ADK
멀티 에이전트
동영상

ADK 및 Gemini로 멀티 에이전트 앱을 빌드하는 방법

이 동영상에서는 콘텐츠를 수정하고 공동작업하는 데 도움이 되는 Google의 ADK (에이전트 개발 도구 키트)를 사용하여 앱을 빌드하는 방법을 보여줍니다. 스테이트풀 멀티 에이전트가 단일 에이전트보다 더 나은 이유를 알아보세요.

2025-10-16
Gemini
동영상

Gemini를 사용하여 동영상을 시청하는 AI 앱 빌드

이 동영상에서는 Gemini 2.5 Pro를 사용하여 YouTube 동영상을 시청하고 이해하는 앱을 빌드하는 방법을 보여줍니다. 스마트 프롬프트를 사용하여 블로그 게시물, 요약, 퀴즈 등의 앱 출력을 맞춤설정하세요. 이 동영상에서는 Gemini를 통합하여 동영상 입력에서 텍스트 콘텐츠와 헤더 이미지를 모두 생성하는 방법, 비용 고려사항, 일괄 요청으로 긴 동영상을 처리하는 방법을 설명합니다.

2025-10-06
GenAI
동영상

Cloud Run에서 생성형 AI 앱을 빌드해 보겠습니다

이 동영상에서는 AI를 사용하여 모든 단계를 지원하면서 아키텍처와 코드를 안내합니다.

2025-07-17
에이전트
Firebase
동영상

Cloud Run 및 Firebase Genkit로 AI 에이전트 빌드

이 동영상에서는 서버리스 AI 에이전트 빌더인 Cloud Run 및 Firebase Genkit으로 AI 에이전트를 빌드하는 방법을 보여줍니다.

2025-07-10
AI Studio
Firebase
Gemini
LLM
동영상

Cloud AI: it's just an API

이 동영상에서는 AI Studio, Cloud Functions, Firebase 호스팅을 사용하여 기술 지원 애플리케이션을 빠르게 빌드하는 방법을 데모로 보여줍니다. 대규모 언어 모델 (LLM)을 활용하는 방법을 알아보고 AI를 기존 웹 애플리케이션에 통합하는 실제 사례를 확인하세요.

2025-06-19
ADK
에이전트
프레임워크
LangGraph
Vertex AI
동영상

Google Cloud에서 AI 에이전트 빌드

이 동영상에서는 Cloud Run 및 Vertex AI를 사용하여 AI 에이전트를 빌드하고 배포하는 방법을 보여줍니다. 도구 호출, 모델 독립성, LangGraph 및 에이전트 개발 키트 (ADK)와 같은 프레임워크 사용과 같은 주요 개념을 살펴봅니다.

2025-05-21
AI 모델
GPU
Ollama
동영상

3단계로 Cloud Run GPU를 사용하여 DeepSeek를 호스팅하는 방법

이 동영상에서는 Cloud Run GPU를 사용하여 DeepSeek AI 모델 호스팅을 간소화하는 방법을 보여줍니다. 세 가지 명령어를 사용하여 Google Cloud에 대규모 언어 모델 (LLM)을 배포하고 관리하는 방법을 알아보세요. 개발자가 주문형 리소스 할당 및 확장을 통해 AI 애플리케이션을 신속하게 운영할 수 있는 Cloud Run 및 Ollama 명령줄 도구의 기능을 알아보세요.

2025-04-24
함수 호출
Gemini
동영상

Cloud Run에서 Gemini 함수 호출을 사용하는 방법

이 동영상에서는 Gemini 함수 호출의 강력한 기능을 살펴보고 외부 API를 AI 애플리케이션에 통합하는 방법을 알아봅니다. Gemini의 자연어 이해를 활용하여 사용자 요청을 처리하고 외부 API에서 날씨 데이터를 가져오는 날씨 앱을 빌드하여 함수 호출의 실제 사례를 제공합니다.

2025-01-23
이미지 생성
Vertex AI
동영상

Cloud Run에서 Google Cloud의 Vertex AI를 사용한 텍스트-이미지 변환

이 동영상에서는 Google Cloud의 Vertex AI를 사용하여 이미지 생성 앱을 빌드하는 방법을 보여줍니다. 개발자는 Vertex AI 이미지 생성 모델을 사용하여 복잡한 인프라나 모델 관리 없이도 멋진 시각적 요소를 만들 수 있습니다.

2025-01-16
GPU
Ollama
동영상

GPU를 사용하는 Ollama 및 Cloud Run

이 동영상에서는 Ollama를 사용하여 클라우드에서 확장 가능하고 효율적인 AI 모델 배포를 위해 GPU를 사용하여 Cloud Run에 대규모 언어 모델을 쉽게 배포하는 방법을 설명합니다.

2024-12-02
데이터 보호
보안
동영상

AI 앱에서 민감한 정보 보호

이 동영상에서는 AI 애플리케이션에서 민감한 정보를 보호하는 방법을 보여줍니다. AI 수명 주기 전반에 걸쳐 데이터를 보호하기 위한 주요 개념, 권장사항, 도구를 살펴봅니다.

2024-11-21
LangChain
RAG
동영상

Google Cloud에서 LangChain을 사용한 RAG

이 동영상에서는 검색 증강 생성 (RAG)을 사용하여 AI 애플리케이션의 정확성을 개선하는 방법을 보여줍니다. AI 응답을 더 정확하고 정밀하게 만드는 기술인 LangChain을 사용하여 RAG의 기능을 활용하는 웹 애플리케이션을 빌드하세요.

2024-11-07
대형 프롬프트 창
모델 조정
RAG
동영상

RAG와 모델 조정, 대형 프롬프트 창 비교

이 동영상에서는 긴 컨텍스트 창이 있는 프롬프트, 검색 증강 생성 (RAG), 모델 미세 조정 등 데이터를 AI 애플리케이션에 통합하는 세 가지 기본 방법을 설명합니다. Serverless Expeditions의 이번 에피소드에서는 각 접근 방식의 강점, 한계, 이상적인 사용 사례를 알아보고 AI 프로젝트에 대해 정보에 입각한 결정을 내립니다.

2024-11-14
프롬프트 엔지니어링
동영상

개발자를 위한 프롬프트 엔지니어링

이 동영상에서는 프롬프트 엔지니어링을 사용하여 AI 응답의 품질을 개선하는 방법을 보여줍니다. 동영상을 시청하여 사고의 연쇄, 퓨샷, 멀티샷 프롬프트 기법으로 생성형 AI에서 더 정확하고 관련성 높은 대답을 얻는 방법을 알아보세요.

2024-10-31
AI 모델
GPU
LLM
동영상

Cloud Run에 GPU 기반 LLM 배포

이 동영상에서는 Cloud Run에 자체 GPU 기반 대규모 언어 모델 (LLM)을 배포하는 방법을 보여줍니다. 이 동영상에서는 Gemma와 같은 오픈소스 모델을 가져와 GPU 가속을 사용하여 확장 가능한 서버리스 서비스로 배포하는 방법을 안내합니다.

2024-10-06
GPU
LLM
Ollama
동영상

Cloud Run에서 GPU 사용

이 동영상에서는 Cloud Run의 Ollama를 통해 오픈소스 대규모 언어 모델인 Google의 Gemma 2를 배포하는 방법을 보여줍니다.

2024-10-03
Gemini
LLM
동영상

Google Cloud에서 AI 채팅 앱 빌드하기

이 동영상에서는 Gemini에서 대규모 언어 모델 (LLM) 채팅 앱을 빌드하는 방법을 보여줍니다.

2024-08-29
멀티모달
Vertex AI
동영상

멀티모달 AI

이 동영상에서는 Vertex AI를 사용하여 동영상, 오디오, 텍스트를 처리하여 출력을 생성하는 멀티모달 애플리케이션을 빌드하는 데모를 보여줍니다.

2024-08-15
AI 모델
Vertex AI
동영상

서버리스 생성형 AI 사용 | Google Vertex AI

이 동영상에서는 Vertex AI Studio, Cloud Run, 생성형 AI 모델을 사용하여 매우 빠른 생성형 AI 앱을 빌드하고 배포하는 방법을 보여줍니다.

2024-02-22
Codelab
도구

Google Cloud Run에서 n8n 배포 및 실행

이 Codelab에서는 지속성을 위한 Cloud SQL 데이터베이스와 민감한 데이터를 위한 Secret Manager를 사용하여 Cloud Run에 프로덕션 지원 n8n 워크플로 자동화 도구 인스턴스를 배포하는 방법을 보여줍니다.

2025-11-20
Codelab
GPU
LLM

vLLM 및 OpenAI Python SDK를 사용하여 Cloud Run GPU에서 LLM 추론을 실행하는 방법

이 Codelab에서는 vLLM을 추론 엔진으로 사용하고 OpenAI Python SDK를 사용하여 문장 완성을 실행하여 GPU를 사용하여 Cloud Run에 Google의 Gemma 2 2b 명령 튜닝 모델을 배포하는 방법을 보여줍니다.

2025-11-13
ADK
에이전트
Codelab

Cloud Run에서 ADK 에이전트 배포, 관리, 관찰

이 Codelab에서는 Cloud Run에서 에이전트 개발 키트 (ADK)로 빌드된 강력한 에이전트를 배포, 관리, 모니터링하는 방법을 안내합니다.

2025-11-12
Codelab
Gemini CLI
MCP

Cloud Run에 보안 MCP 서버를 배포하는 방법

이 Codelab에서는 보안 모델 컨텍스트 프로토콜 (MCP) 서버를 Cloud Run에 배포하고 Gemini CLI에서 연결하는 방법을 안내합니다.

2025-10-28
ADK
에이전트
Codelab
MCP

Cloud Run에서 MCP 서버를 사용하는 ADK 에이전트 빌드 및 배포

이 Codelab에서는 에이전트 개발 키트 (ADK)를 사용하여 도구를 사용하는 AI 에이전트를 빌드하고 배포하는 방법을 안내합니다. 에이전트는 도구를 위해 원격 MCP 서버에 연결되고 Cloud Run에 컨테이너로 배포됩니다.

2025-10-27
AI 모델
Cloud Run 작업
Codelab
모델 조정

Cloud Run 작업을 사용하여 LLM을 미세 조정하는 방법

이 Codelab에서는 GPU를 사용하여 Cloud Run 작업으로 Text2Emoji 데이터 세트에서 Gemma 3 모델을 미세 조정하고 vLLM을 사용하여 Cloud Run 서비스에서 결과 모델을 제공하는 방법을 단계별로 안내합니다.

2025-10-21
일괄 추론
Cloud Run 작업
Codelab

Cloud Run 작업에서 일괄 추론을 실행하는 방법

이 Codelab에서는 GPU 기반 Cloud Run 작업을 사용하여 Llama 3.2-1b 모델에서 일괄 추론을 실행하고 결과를 Cloud Storage 버킷에 직접 쓰는 방법을 보여줍니다.

2025-10-21
ADK
에이전트
Codelab
GPU
LLM
MCP

실습 3:프로토타입에서 프로덕션으로 - GPU를 사용하여 Cloud Run에 ADK 에이전트 배포

이 Codelab에서는 Cloud Run에서 GPU 가속 Gemma 백엔드를 사용하여 프로덕션 지원 에이전트 개발 키트 (ADK) 에이전트를 배포하는 방법을 보여줍니다. 이 Codelab에서는 배포, 통합, 성능 테스트를 다룹니다.

2025-10-03
에이전트
Codelab

Cloud Run에서 실행되는 백엔드 ADK 에이전트를 호출하는 Gradio 프런트엔드 앱을 배포하는 방법

이 Codelab에서는 Gradio 프런트엔드와 ADK 에이전트 백엔드로 구성된 2계층 애플리케이션을 Cloud Run에 배포하는 방법을 보여줍니다. 보안 인증된 서비스 간 통신을 구현하는 데 중점을 둡니다.

2025-09-29
Codelab
Gemini

Gemini를 사용하여 Cloud Run에 FastAPI 챗봇 앱을 배포하는 방법

이 Codelab에서는 FastAPI 챗봇 앱을 Cloud Run에 배포하는 방법을 보여줍니다.

2025-04-02
Cloud Run Functions
Codelab
LLM

Cloud Run Functions의 사이드카에서 LLM을 호스팅하는 방법

이 Codelab에서는 Cloud Run 함수의 사이드카에서 gemma3:4b 모델을 호스팅하는 방법을 보여줍니다.

2025-03-27
커뮤니티
보안

어디서나 Cloud Run 서비스를 안전하게 호출

이 도움말에서는 모든 환경에서 인증된 Cloud Run 서비스를 안전하게 호출하기 위해 ID 토큰을 획득하는 Python 코드 예시를 제공합니다. 이 예에서는 애플리케이션 기본 사용자 인증 정보 (ADC)를 사용하여 호출을 인증합니다.

2025-10-15
AI 모델
커뮤니티
RAG

서버리스 AI: Cloud Run으로 Gemma 삽입

이 도움말에서는 EmbeddingGemma 모델을 컨테이너화하고 GPU를 사용하여 Cloud Run에 배포한 후 이를 사용하여 RAG 애플리케이션을 빌드하는 방법을 단계별로 안내합니다.

2025-09-24
커뮤니티
보안

AI 신뢰 체인: Cloud Run에서 MCP Toolbox 아키텍처 보호

이 문서에서는 Google Cloud에서 빌드된 간단한 호텔 예약 애플리케이션을 분석합니다. 서비스 ID를 사용하는 강력한 제로 트러스트 보안 모델을 보여주고 최종 사용자부터 데이터베이스까지 안전한 신뢰 체인이 설정되는 방법을 보여줍니다.

2025-09-03
AI 모델
커뮤니티
컨테이너화
Docker
Ollama
RAG

서버리스 AI: Cloud Run을 사용한 Qwen3 Embeddings

이 문서에서는 GPU를 사용하여 Qwen3 Embedding 모델을 Cloud Run에 배포하는 방법을 설명합니다. 이 도움말에서는 Docker 및 Ollama를 사용한 컨테이너화도 다루고 RAG 애플리케이션에서 이를 사용하는 방법을 보여주는 예시도 제공합니다.

2025-08-20
아키텍처
커뮤니티
LLM

아직도 컨테이너에 AI 모델을 패키징하고 계신가요? 대신 Cloud Run에서 이렇게 하세요

이 도움말에서는 모델 파일을 애플리케이션 컨테이너에서 분리하고 대신 Cloud Storage FUSE를 사용하여 Cloud Run에서 대규모 언어 모델 (LLM)을 서빙하기 위한 더 효율적이고 확장 가능한 아키텍처를 설명합니다.

2025-08-11
AI 모델
커뮤니티

Gemini 및 Cloud Run으로 AI 기반 팟캐스트 생성기 빌드

이 도움말에서는 콘텐츠 요약에 Gemini를 사용하고 Cloud Run을 사용하는 서버리스 AI 기반 팟캐스트 생성기를 빌드하는 방법을 자세히 설명합니다. 이 예시에서는 RSS 피드에서 일일 오디오 브리핑을 생성하고 제공하는 자동화된 파이프라인을 오케스트레이션합니다.

2025-08-11
커뮤니티
MCP

Google Cloud Run으로 MCP 서버 지원

이 도움말에서는 모델 컨텍스트 프로토콜 (MCP)의 목적을 설명하고 Cloud Run에 MCP 서버를 빌드하고 배포하여 리소스를 AI 애플리케이션용 도구로 노출하는 방법을 보여주는 튜토리얼을 제공합니다.

2025-07-09
커뮤니티
ML 모델
모니터링

Cloud Run으로 ML 모델 배포 및 모니터링 - 가볍고, 확장 가능하며, 비용 효율적

이 도움말에서는 Google Cloud 서비스가 포함된 경량 모니터링 스택을 활용하여 성능을 추적하고 비용을 관리하면서 Cloud Run에 머신러닝 모델을 배포, 모니터링, 자동 확장하는 방법을 설명합니다.

2025-05-29
AI 모델
AI Studio
커뮤니티
LLM

AI Studio에서 Cloud Run으로 Gemma 직접 배포

이 도움말에서는 AI Studio에서 Gemma 모델을 가져와 프로덕션에 맞게 코드를 조정하고 Cloud Run에 컨테이너화된 웹 애플리케이션으로 배포하는 방법을 단계별로 안내합니다.

2025-05-29
ADK
에이전트
커뮤니티
MCP

에이전트 아키텍처의 3요소: ADK, MCP, Cloud Run

이 도움말에서는 Cloud Run에서 호스팅되는 모델 컨텍스트 프로토콜 (MCP) 서버와 통신하여 항공편 예약을 관리하는 에이전트 개발 키트 (ADK) 워크플로를 설정하여 AI 에이전트 아키텍처를 빌드하는 방법을 보여줍니다.

2025-05-27
A2A
에이전트
커뮤니티
프레임워크
사용 사례

Cloud Run에서 구매 컨시어지 사용 사례를 사용하여 Agent2Agent (A2A) 프로토콜 살펴보기

이 도움말에서는 Agent2Agent (A2A) 프로토콜을 설명하고 구매 컨시어지 애플리케이션에서 사용하는 방법을 보여줍니다. Cloud Run 앱에는 다양한 프레임워크로 빌드된 여러 AI 에이전트가 포함되어 있으며, 이들은 서로 협력하여 사용자의 주문을 처리합니다.

2025-05-15
AI 모델
자동화
CI/CD
커뮤니티
GitHub

GitHub Actions 및 Cloud Run으로 ML 모델 배포 자동화

이 도움말에서는 GitHub Actions로 CI/CD 파이프라인을 만들어 Cloud Run에서 컨테이너화된 서비스로 머신러닝 모델의 빌드 및 배포를 자동화하는 방법을 포괄적으로 안내합니다.

2025-05-08
커뮤니티
LLM
보안

Google Cloud를 사용한 소버린 AI 솔루션 빌드 - Cloud Run

이 도움말에서는 파트너의 소버린 컨트롤을 사용하여 Google Cloud에서 소버린 AI 솔루션을 빌드하고 배포하는 방법을 단계별로 안내합니다. 이 예에서는 Cloud Run에서 Gemma 모델을 실행하여 데이터 상주 및 유럽 규정 준수를 보장합니다.

2025-04-03
커뮤니티
LLM

아침 출근길에 Cloud Run에서 Deepseek 사용하기

이 문서에서는 아침 출근길에 Ollama를 사용하여 GPU가 있는 Cloud Run에 Deepseek R1 모델을 신속하게 배포하는 방법을 보여줍니다. 이 도움말에서는 컨테이너에 모델을 삽입하고, 트래픽 분할을 사용하여 A/B 테스트를 실행하고, 사이드카 컨테이너를 사용하여 웹 UI를 추가하는 등의 고급 주제를 살펴봅니다.

2025-02-11
커뮤니티
LLM
Ollama

Google Cloud Run에서 Ollama를 사용해 모든 개방형 LLM을 실행하는 방법 [단계별]

이 문서에서는 Ollama를 사용하여 Google Cloud Run에서 Gemma 2와 같은 개방형 LLM을 호스팅하는 방법을 보여줍니다. 이 도움말에는 모델 지속성을 위한 Cloud Storage 버킷을 만들고 배포를 테스트하는 방법도 포함되어 있습니다.

2025-01-20
커뮤니티
ML 모델

Google Cloud: Cloud Run을 사용하여 GPU로 서버리스 머신러닝 모델 배포

이 문서에서는 Cloud Run에서 GPU 지원을 사용하여 머신러닝 (ML) 모델을 배포하는 방법을 단계별로 설명합니다. 이 도움말에서는 프로젝트 설정 및 컨테이너화부터 Cloud Build를 사용한 자동 배포, curl 및 JavaScript를 사용한 테스트까지 모든 내용을 다룹니다.

2025-01-17