このページでは、Cloud Run で AI ソリューションを構築してデプロイするのに役立つ厳選されたリソースの一覧を示します。
Cloud Run は、スケーラビリティに優れた Google のインフラストラクチャ上でコード、関数、コンテナを実行できるフルマネージド アプリケーション プラットフォームです。Cloud Run を使用して、AI 推論エンドポイント、生成モデル API、検索拡張生成(RAG)パイプライン全体など、さまざまな AI ソリューションを実行できます。
以下のカテゴリとリンクを使用して、公式ガイド、クイックスタート、価値のあるコミュニティ コンテンツに移動します。Cloud Run のドキュメントと推奨事項については、Cloud Run での AI ソリューションを確認するをご覧ください。
コミュニティ リソースに関する注意事項
「コミュニティ」とラベル付けされたコンテンツは、デベロッパー コミュニティから選択されたリソースであり、Google によって開発または管理されているものではありません。これらのリソースを使用する際は、次の点にご注意ください。
- セキュリティ監査: コードを常に慎重に確認します。特に、個人情報、ユーザー入力、ネットワーク アクセスの処理方法に注意します。
- 非推奨と更新: コミュニティ コードは、警告なしに新しい Cloud Run 機能や AI バージョンで動作しなくなる可能性があります。最終更新日と、現在も積極的にメンテナンスされているかどうかを確認します。
- 費用効率: これらの設定は低コストを目的としていることが多いですが、ライブ プロジェクトで費用を節約するための Google のベスト プラクティスに沿っていない可能性があります。請求を注意深くモニタリングしてください。
- ライセンスの遵守: アプリケーションに追加するコミュニティ コードやライブラリのオープンソース ライセンスを理解し、遵守してください。
- デプロイ前にテストする: 重要な設定をすべて確認し、本番環境のプロジェクトで使用する前に、テスト環境でコミュニティ ソリューションを試してください。
カテゴリまたはキーワードでフィルタする
フィルタまたは検索ボックスを使用して、カテゴリまたはキーワードでコンテンツを検索します。
| カテゴリ | タイトルと説明 | 公開日 |
|---|---|---|
|
ブログ
Gemma 3
|
このブログ投稿では、サーバーレス アプローチに Cloud Run を使用するか、プラットフォーム アプローチに Google Kubernetes Engine(GKE)を使用して、Google Cloud に Gemma 3 をデプロイする方法をデベロッパーに説明する 2 つの Codelab を紹介します。 |
2025-11-17 |
|
ブログ
ツール
|
簡単な AI ワークフローの自動化: Cloud Run に n8n をデプロイする このブログ投稿では、Cloud Run で n8n ワークフロー自動化ツールを使用してエージェントをデプロイし、AI 搭載のワークフローを作成して Google Workspace などのツールと統合する方法について説明します。 |
2025-11-07 |
|
ブログ
拡張機能
Gemini
|
新しい Gemini CLI 拡張機能でアプリのデプロイとセキュリティ分析を自動化 このブログ投稿では、Gemini CLI の Cloud Run 拡張機能について説明します。この拡張機能を使用すると、1 つの /deploy コマンドでアプリケーションのデプロイを簡素化できます。 |
2025-09-10 |
|
ブログ
拡張機能
Gemini
|
ローカルホストからリリースまで: Cloud Run と Docker Compose で AI アプリのデプロイを簡素化 このブログ投稿では、Google Cloud と Docker のコラボレーションについてお知らせします。このコラボレーションにより、デベロッパーは gcloud run compose up コマンドを使用して compose.yaml ファイルを Cloud Run に直接デプロイできるようになり、複雑な AI アプリケーションのデプロイが簡素化されます。 |
2025-07-10 |
|
ブログ
MCP
|
わずか 10 分でリモート MCP サーバーを構築して Google Cloud Run にデプロイ このブログ投稿では、FastMCP を使用して 10 分以内に安全なリモート Model Context Protocol(MCP)サーバーを Google Cloud Run に構築してデプロイし、ローカル クライアントからテストする手順について説明します。 |
2025-06-07 |
|
エージェント
AI Studio
ブログ
MCP
|
AI のデプロイが簡単に: AI Studio または MCP 対応 AI エージェントからアプリを Cloud Run にデプロイ このブログ投稿では、AI Studio から Cloud Run へのワンクリック デプロイ、Gemma 3 モデルの直接デプロイ、エージェント ベースのデプロイ用の MCP サーバーを使用して AI デプロイを簡素化する方法を紹介します。 |
2025-05-20 |
|
エージェント
ブログ
ユースケース
|
CodeRabbit、Google Cloud Run で AI コードレビュー エージェントを構築してマージ時間とバグ発生を半減 この記事では、AI コードレビュー ツールである CodeRabbit が Cloud Run を活用して、信頼できないコードを実行するためのスケーラブルで安全なプラットフォームを構築し、最終的にコードレビュー時間とバグの発生を半減させている事例を紹介します。 |
2025-04-22 |
|
ブログ
Vertex AI
|
Vertex AI と Cloud Run を使用して共有可能な生成 AI アプリケーションを 60 秒未満で作成する方法 この記事では、Cloud Run でウェブ アプリケーションをワンクリックでデプロイできる Vertex AI の機能を紹介します。生成 AI プロンプトを使用して、生成 AI のコンセプトを共有可能なプロトタイプに変換するプロセスを効率化します。 |
2025-02-20 |
|
ブログ
デプロイ
|
Cloud Run で Gemma 3 を使用してサーバーレス AI をデプロイする方法 このブログ投稿では、軽量なオープン AI モデル ファミリーである Gemma 3 を発表し、スケーラブルで費用対効果の高いサーバーレス AI アプリケーション向けに Cloud Run にデプロイする方法について説明します。 |
2025-03-12 |
|
ブログ
GPU
推論
RAG
Vertex AI
|
Cloud Run と Vertex AI で Inference as a Service を活用する このブログ投稿では、Cloud Run で Inference-as-a-Service モデルを採用して、生成 AI アプリケーションの開発を加速する方法について説明します。これにより、GPU サポートによる LLM のホスティングとスケーリングが可能になり、コンテキスト固有のレスポンスのために検索拡張生成(RAG)と統合できます。 |
2025-02-20 |
|
アーキテクチャ
RAG
Vertex AI
|
Vertex AI とベクトル検索を使用した生成 AI 用 RAG インフラストラクチャ このドキュメントでは、Google Cloud で検索拡張生成(RAG)を使用して生成 AI アプリケーションを構築するためのリファレンス アーキテクチャについて説明します。このアーキテクチャでは、大規模な類似性照合にベクトル検索を使用し、エンベディングとモデルの管理に Vertex AI を使用します。 |
2025-03-07 |
|
エージェント
Antigravity
動画
|
コーディングを止めてアーキテクチャ設計を始めよう: Google Antigravity + Cloud Run この動画では、Google のエージェント型 IDE である Antigravity を紹介します。これを使用して、フルスタック アプリをゼロから構築して Cloud Run にデプロイします。この動画では、AI の仕様書を作成し、最新の Node.js を使用するように強制し(ビルドステップなし)、構成ファイルに触れながらデプロイ中にポートの不一致を自律的にデバッグする様子をご覧いただけます。 |
2025-12-08 |
|
エージェント
GPU
Ollama
動画
|
この AI エージェントは Cloud Run + NVIDIA GPU で実行されます この動画では、サーバーレス NVIDIA GPU で実際の AI エージェント アプリケーションを構築する方法について説明します。Cloud Run の Ollama と Gemma などのオープンソース モデルを使用し、LangGraph を使用してマルチエージェント ワークフロー(RAG + ツール)を構築するスマート ヘルス エージェントのデモをご覧ください。 |
2025-11-13 |
|
MCP
動画
|
Google Cloud Run の MCP ツールで AI エージェントを強化する この動画では、MCP(Model Context Protocol)と、AI エージェント開発者の作業を簡素化する方法について説明します。FastMCP を使用して MCP サーバーを構築し、Cloud Run に ADK エージェントをデプロイする手順を確認します。Cloud Run の組み込み OIDC トークンを使用して、コードがサービス間の認証を処理する方法を確認します。 |
2025-11-06 |
|
Model Armor
セキュリティ
動画
|
Google の AI をジェイルブレイクしようとしたところ、Model Armor が阻止しました この動画では、Google の Model Armor を使用して API 呼び出しで脅威をブロックする例を示します。 |
2025-10-30 |
|
ベンチマーク
Vertex AI
動画
|
この動画では、Vertex AI を使用して Google Cloud のツールで信頼性の高い生成 AI アプリケーションを構築する方法について説明します。デベロッパーは、Google Cloud ツールを使用して迅速なプロトタイピングを行う方法、データドリブン ベンチマークで具体的な数値を取得する方法、最後に、真の品質管理のための自動化された CI/CD パイプラインを構築する方法を学びます。その際、一般的な落とし穴を回避する方法も学びます。 |
2025-10-23 |
|
ADK
マルチエージェント
動画
|
ADK と Gemini を使用してマルチエージェント アプリを構築する方法 この動画では、Google の ADK(Agent Development Toolkit)を使用して、コンテンツの推敲と共同編集に役立つアプリを構築する方法について説明します。ステートフル マルチエージェントが単一エージェントよりも優れている理由を確認する。 |
2025-10-16 |
|
Gemini
動画
|
Gemini を使用して動画を視聴する AI アプリを構築する この動画では、Gemini 2.5 Pro を使用して YouTube 動画を視聴して理解するアプリを構築する方法を紹介します。スマート プロンプトを使用して、ブログ投稿、要約、クイズなどのアプリの出力をカスタマイズします。この動画では、Gemini を統合して動画入力からテキスト コンテンツとヘッダー画像を生成する方法、費用の考慮事項、バッチ リクエストを使用して長い動画を処理する方法について説明します。 |
2025-10-06 |
|
GenAI
動画
|
この動画では、AI を使用して各ステップをサポートしながら、アーキテクチャとコードについて説明します。 |
2025-07-17 |
|
エージェント
Firebase
動画
|
Cloud Run と Firebase Genkit を使用して AI エージェントを構築する この動画では、サーバーレス AI エージェント ビルダーである Cloud Run と Firebase Genkit を使用して AI エージェントを構築する方法について説明します。 |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLM
動画
|
この動画では、AI Studio、Cloud Functions、Firebase Hosting を使用してテクニカル サポート アプリケーションを迅速に構築する方法のデモを紹介します。大規模言語モデル(LLM)を活用する方法を学び、AI を従来のウェブ アプリケーションに統合する実践的な例を確認します。 |
2025-06-19 |
|
ADK
エージェント
フレームワーク
LangGraph
Vertex AI
動画
|
この動画では、Cloud Run と Vertex AI を使用して AI エージェントを構築してデプロイする方法について説明します。ツールの呼び出し、モデルの不可知性、LangGraph や Agent Development Kit(ADK)などのフレームワークの使用などの重要なコンセプトについて説明します。 |
2025-05-21 |
|
AI モデル
GPU
Ollama
動画
|
Cloud Run GPU を使用して DeepSeek をホストする方法(3 ステップ) この動画では、Cloud Run GPU を使用して DeepSeek AI モデルのホスティングを簡素化する方法について説明します。3 つのコマンドを使用して、Google Cloud に大規模言語モデル(LLM)をデプロイして管理する方法を学習します。Cloud Run と Ollama コマンドライン ツールの機能について説明します。デベロッパーは、オンデマンドのリソース割り当てとスケーリングにより、AI アプリケーションを迅速に運用できます。 |
2025-04-24 |
|
関数呼び出し
Gemini
動画
|
Cloud Run で Gemini 関数呼び出しを使用する方法 この動画では、Gemini の関数呼び出しの機能について説明し、外部 API を AI アプリケーションに統合する方法について学びます。Gemini の自然言語理解を活用してユーザー リクエストを処理し、外部 API から天気データを取得する天気アプリを構築します。これは、関数呼び出しの実際の例です。 |
2025-01-23 |
|
画像生成
Vertex AI
動画
|
Cloud Run で Google Cloud の Vertex AI を使用してテキストから画像を生成する この動画では、Google Cloud の Vertex AI を使用して画像生成アプリを構築する方法について説明します。Vertex AI 画像生成モデルを使用すると、デベロッパーは複雑なインフラストラクチャやモデル管理を必要とせずに、見事なビジュアルを作成できます。 |
2025-01-16 |
|
GPU
Ollama
動画
|
この動画では、Ollama を使用して、GPU を使用する Cloud Run に大規模言語モデルを簡単にデプロイし、クラウドでスケーラブルで効率的な AI モデルのデプロイを実現する方法について説明します。 |
2024-12-02 |
|
データ保護
セキュリティ
動画
|
この動画では、AI アプリケーションで機密データを保護する方法について説明します。AI ライフサイクル全体を通してデータを保護するための重要なコンセプト、ベスト プラクティス、ツールを見ていきましょう。 |
2024-11-21 |
|
LangChain
RAG
動画
|
Google Cloud 上の LangChain を使用した RAG この動画では、検索拡張生成(RAG)を使用して AI アプリケーションの精度を高める方法について説明します。LangChain を使用して RAG の力を活用するウェブ アプリケーションを構築します。RAG は、AI のレスポンスをより正確で精密にする手法です。 |
2024-11-07 |
|
大きなプロンプト ウィンドウ
モデルのチューニング
RAG
動画
|
この動画では、データを AI アプリケーションに統合する 3 つの主な方法(長いコンテキスト ウィンドウを含むプロンプト、検索拡張生成(RAG)、モデル チューニング)について説明します。今回の Serverless Expeditions では、各アプローチの長所、短所、理想的なユースケースについて説明します。これにより、AI プロジェクトについて十分な情報に基づいて意思決定を行うことができます。 |
2024-11-14 |
|
プロンプト エンジニアリング
動画
|
この動画では、プロンプト エンジニアリングを使用して AI の回答の質を高める方法について説明します。動画では、思考の連鎖、フューショット、マルチショットのプロンプト手法を使用して、生成 AI からより正確で関連性の高い回答を得る方法について説明します。 |
2024-10-31 |
|
AI モデル
GPU
LLM
動画
|
この動画では、Cloud Run に独自の GPU 搭載大規模言語モデル(LLM)をデプロイする方法について説明します。この動画では、Gemma などのオープンソース モデルを取得し、GPU アクセラレーションを使用してスケーラブルなサーバーレス サービスとしてデプロイする手順について説明します。 |
2024-10-06 |
|
GPU
LLM
Ollama
動画
|
この動画では、Cloud Run の Ollama を介してオープンソースの大規模言語モデルである Google の Gemma 2 をデプロイするデモを紹介します。 |
2024-10-03 |
|
Gemini
LLM
動画
|
Google Cloud で AI チャットアプリを構築する この動画では、Gemini で大規模言語モデル(LLM)チャットアプリを構築する方法について説明します。 |
2024-08-29 |
|
マルチモーダル
Vertex AI
動画
|
この動画では、Vertex AI を使用して動画、音声、テキストを処理して出力を生成するマルチモーダル アプリケーションを構築するデモを紹介します。 |
2024-08-15 |
|
AI モデル
Vertex AI
動画
|
サーバーレス生成 AI の使用 | Google Vertex AI この動画では、Vertex AI Studio、Cloud Run、生成 AI モデルを使用して、高速な生成 AI アプリを構築してデプロイする方法について説明します。 |
2024-02-22 |
|
Codelab
ツール
|
Google Cloud Run で n8n をデプロイして実行する この Codelab では、永続性のための Cloud SQL データベースと機密データの Secret Manager を備えた、本番環境対応の n8n ワークフロー自動化ツールのインスタンスを Cloud Run にデプロイする方法について説明します。 |
2025-11-20 |
|
Codelab
GPU
LLM
|
vLLM と OpenAI Python SDK を使用して Cloud Run GPU で LLM 推論を実行する方法 この Codelab では、推論エンジンとして vLLM を使用し、OpenAI Python SDK を使用して文の補完を行うことで、GPU を使用して Google の Gemma 2 2b 指示チューニング モデルを Cloud Run にデプロイする方法について説明します。 |
2025-11-13 |
|
ADK
エージェント
Codelab
|
Cloud Run で ADK エージェントをデプロイ、管理、モニタリングする この Codelab では、Cloud Run で Agent Development Kit(ADK)を使用して構築された強力なエージェントのデプロイ、管理、モニタリングについて説明します。 |
2025-11-12 |
|
Codelab
Gemini CLI
MCP
|
Cloud Run で安全な MCP サーバーをデプロイする方法 この Codelab では、Cloud Run に安全な Model Context Protocol(MCP)サーバーをデプロイし、Gemini CLI から接続する手順について説明します。 |
2025-10-28 |
|
ADK
エージェント
Codelab
MCP
|
Cloud Run で MCP サーバーを使用する ADK エージェントをビルドしてデプロイする この Codelab では、Agent Development Kit(ADK)を使用してツールを使用する AI エージェントを構築してデプロイする方法について説明します。エージェントは、ツール用にリモート MCP サーバーに接続し、Cloud Run にコンテナとしてデプロイされます。 |
2025-10-27 |
|
AI モデル
Cloud Run ジョブ
Codelab
モデルのチューニング
|
Cloud Run ジョブを使用して LLM をファインチューニングする方法 この Codelab では、GPU で Cloud Run ジョブを使用して Text2Emoji データセットで Gemma 3 モデルをファインチューニングし、vLLM を使用して Cloud Run サービスで結果のモデルをサービングする方法について、手順ごとに説明します。 |
2025-10-21 |
|
バッチ推論
Cloud Run ジョブ
Codelab
|
この Codelab では、GPU を搭載した Cloud Run ジョブを使用して Llama 3.2-1b モデルでバッチ推論を実行し、その結果を Cloud Storage バケットに直接書き込む方法について説明します。 |
2025-10-21 |
|
ADK
エージェント
Codelab
GPU
LLM
MCP
|
ラボ 3:プロトタイプから本番環境へ - GPU を使用して ADK エージェントを Cloud Run にデプロイする この Codelab では、Cloud Run で GPU アクセラレータ Gemma バックエンドを使用して、本番環境対応の Agent Development Kit(ADK)エージェントをデプロイする方法について説明します。この Codelab では、デプロイ、統合、パフォーマンス テストについて説明します。 |
2025-10-03 |
|
エージェント
Codelab
|
Cloud Run で実行されるバックエンド ADK エージェントを呼び出す Gradio フロントエンド アプリをデプロイする方法 この Codelab では、Gradio フロントエンドと ADK エージェント バックエンドで構成される 2 階層アプリケーションを Cloud Run にデプロイする方法について説明します。安全な認証済みサービス間通信の実装に重点を置いています。 |
2025-09-29 |
|
Codelab
Gemini
|
Gemini を使用して FastAPI chatbot アプリを Cloud Run にデプロイする方法 この Codelab では、FastAPI チャットボット アプリを Cloud Run にデプロイする方法について説明します。 |
2025-04-02 |
|
Cloud Run functions
Codelab
LLM
|
Cloud Run functions のサイドカーで LLM をホストする方法 この Codelab では、Cloud Run functions のサイドカーで gemma3:4b モデルをホストする方法について説明します。 |
2025-03-27 |
|
コミュニティ
セキュリティ
|
この記事では、任意の環境から認証済みの Cloud Run サービスを安全に呼び出すための ID トークンを取得する Python コードの例を示します。この例では、アプリケーションのデフォルト認証情報(ADC)を使用して呼び出しを認証します。 |
2025-10-15 |
|
AI モデル
コミュニティ
RAG
|
サーバーレス AI: Cloud Run で EmbeddingGemma を使用する この記事では、EmbeddingGemma モデルをコンテナ化して GPU を使用して Cloud Run にデプロイし、それを使用して RAG アプリケーションを構築する手順について説明します。 |
2025-09-24 |
|
コミュニティ
セキュリティ
|
AI の信頼の連鎖: Cloud Run で MCP ツールボックス アーキテクチャを保護する この記事では、Google Cloud 上に構築されたシンプルなホテル予約アプリケーションを分解します。サービス ID を使用した堅牢なゼロトラスト セキュリティ モデルを示し、エンドユーザーからデータベースまで安全な信頼チェーンを確立する方法を示します。 |
2025-09-03 |
|
AI モデル
コミュニティ
コンテナ化
Docker
Ollama
RAG
|
サーバーレス AI: Cloud Run を使用した Qwen3 エンベディング この記事では、GPU を使用して Qwen3 エンベディング モデルを Cloud Run にデプロイする方法について説明します。この記事では、Docker と Ollama を使用したコンテナ化についても説明し、RAG アプリケーションでの使用例を示します。 |
2025-08-20 |
|
アーキテクチャ
コミュニティ
LLM
|
まだ AI モデルをコンテナにパッケージ化していますか?代わりに Cloud Run で行う この記事では、モデルファイルをアプリケーション コンテナから切り離し、代わりに Cloud Storage FUSE を使用することで、Cloud Run で大規模言語モデル(LLM)をサービングするためのより効率的でスケーラブルなアーキテクチャを提案します。 |
2025-08-11 |
|
AI モデル
コミュニティ
|
Gemini と Cloud Run を使用して AI を活用したポッドキャスト ジェネレータを構築する この記事では、Gemini を使用してコンテンツを要約し、Cloud Run を使用するサーバーレスの AI を活用したポッドキャスト生成ツールを構築する方法について詳しく説明します。この例では、RSS フィードから毎日の音声ブリーフィングを生成して配信する自動パイプラインをオーケストレートします。 |
2025-08-11 |
|
コミュニティ
MCP
|
Google Cloud Run で MCP サーバーを強化する この記事では、Model Context Protocol(MCP)の目的について説明し、Cloud Run に MCP サーバーを構築してデプロイし、リソースを AI アプリケーションのツールとして公開する方法のチュートリアルを提供します。 |
2025-07-09 |
|
コミュニティ
ML モデル
モニタリング
|
Cloud Run を使用した ML モデルのデプロイとモニタリング - 軽量、スケーラブル、費用対効果が高い この記事では、Google Cloud サービスで軽量なモニタリング スタックを使用して、Cloud Run で ML モデルをデプロイ、モニタリング、自動スケーリングし、パフォーマンスを追跡して費用を管理する方法について説明します。 |
2025-05-29 |
|
AI モデル
AI Studio
コミュニティ
LLM
|
AI Studio から Cloud Run への Gemma の直接デプロイ この記事では、AI Studio から Gemma モデルを取得し、本番環境用にコードを適応させて、Cloud Run にコンテナ化されたウェブ アプリケーションとしてデプロイする手順を説明します。 |
2025-05-29 |
|
ADK
エージェント
コミュニティ
MCP
|
エージェント アーキテクチャのトライアド: ADK、MCP、Cloud Run この記事では、Cloud Run でホストされている Model Context Protocol(MCP)サーバーと通信してフライト予約を管理する Agent Development Kit(ADK)ワークフローを設定し、AI エージェント アーキテクチャを構築する方法について説明します。 |
2025-05-27 |
|
A2A
エージェント
コミュニティ
フレームワーク
ユースケース
|
Cloud Run での購買コンシェルジュのユースケースを使用した Agent2Agent(A2A)プロトコルの探索 この記事では、Agent2Agent(A2A)プロトコルについて説明し、購入コンシェルジュ アプリケーションでの使用例を示します。Cloud Run アプリには、さまざまなフレームワークで構築された複数の AI エージェントが含まれており、ユーザーの注文を処理するために相互に連携します。 |
2025-05-15 |
|
AI モデル
自動化
CI/CD
コミュニティ
GitHub
|
GitHub Actions と Cloud Run を使用して ML モデルのデプロイを自動化する この記事では、GitHub Actions を使用して CI/CD パイプラインを作成し、Cloud Run でコンテナ化されたサービスとして ML モデルのビルドとデプロイを自動化する方法について包括的なガイドを提供します。 |
2025-05-08 |
|
コミュニティ
LLM
セキュリティ
|
Google Cloud を使用した Sovereign AI ソリューションの構築 - Cloud Run この記事では、パートナーによる主権コントロールを使用して、Google Cloud に主権 AI ソリューションを構築してデプロイする方法について、段階的なガイドを提供します。この例では、Cloud Run で Gemma モデルを実行し、データ所在地と欧州の規制の遵守を保証します。 |
2025-04-03 |
|
コミュニティ
LLM
|
朝の通勤中に Cloud Run で Zero から Deepseek まで この記事では、朝の通勤中に Ollama を使用して、GPU を使用する Cloud Run に Deepseek R1 モデルを迅速にデプロイする方法について説明します。この記事では、コンテナへのモデルの埋め込み、トラフィック分割による A/B テスト、サイドカー コンテナを使用したウェブ UI の追加などの高度なトピックについて説明します。 |
2025-02-11 |
|
コミュニティ
LLM
Ollama
|
Google Cloud Run で Ollama を使用して(任意の)オープン LLM を実行する方法 [ステップバイステップ] この記事では、Ollama を使用して Gemma 2 などのオープン LLM を Google Cloud Run でホストする方法について説明します。この記事には、モデルの永続化用の Cloud Storage バケットを作成し、デプロイをテストする手順も含まれています。 |
2025-01-20 |
|
コミュニティ
ML モデル
|
Google Cloud を使用した GPU を使用するサーバーレス ML モデルのデプロイ: Cloud Run この記事では、GPU サポートを使用して Cloud Run に ML モデルをデプロイする手順について説明します。この記事では、プロジェクトの設定とコンテナ化から、Cloud Build を使用した自動デプロイ、curl と JavaScript を使用したテストまで、すべてを網羅しています。 |
2025-01-17 |