Cloud Run – AI Cookbook

Auf dieser Seite finden Sie eine ausgewählte Liste von Ressourcen, die Ihnen beim Erstellen und Bereitstellen von KI-Lösungen in Cloud Run helfen.

Cloud Run ist eine vollständig verwaltete Anwendungsplattform, mit der Sie Ihren Code, Ihre Funktion oder Ihren Container auf der hoch skalierbaren Infrastruktur von Google ausführen können. Mit Cloud Run können Sie verschiedene KI-Lösungen ausführen, z. B. KI-Inferenzendpunkte, APIs für generative Modelle und vollständige RAG-Pipelines (Retrieval-Augmented Generation).

Über die Kategorien und Links unten können Sie auf offizielle Leitfäden, Schnellstarts und wertvolle Community-Inhalte zugreifen. Die Dokumentation und Empfehlungen für Cloud Run finden Sie unter KI-Lösungen in Cloud Run.

Hinweis zu Community-Ressourcen

Inhalte, die als „Community“ gekennzeichnet sind, sind ausgewählte Ressourcen aus der Entwickler-Community und werden nicht von Google entwickelt oder verwaltet. Beachten Sie bei der Verwendung dieser Ressourcen die folgenden Hinweise:

  • Sicherheitsüberprüfung:Überprüfen Sie den Code immer sorgfältig, insbesondere wie er mit privaten Informationen, Nutzereingaben und Netzwerkzugriff umgeht.
  • Einstellung und Updates:Community-Code kann veraltet sein oder ohne Vorwarnung nicht mehr mit neuen Cloud Run-Funktionen oder KI-Versionen funktionieren. Prüfen Sie das Datum der letzten Aktualisierung und ob die App noch aktiv gewartet wird.
  • Kosteneffizienz:Diese Setups sind zwar oft auf niedrige Kosten ausgerichtet, folgen aber möglicherweise nicht den Best Practices von Google zum Sparen von Geld in Live-Projekten. Behalten Sie Ihre Abrechnung im Blick.
  • Lizenzkonformität:Sie müssen die Open-Source-Lizenz für Community-Code oder Bibliotheken, die Sie Ihrer Anwendung hinzufügen, verstehen und einhalten.
  • Vor der Bereitstellung testen:Prüfen Sie alle wichtigen Einstellungen und testen Sie Community-Lösungen in einer Testumgebung, bevor Sie sie für Live-Projekte verwenden.

Nach Kategorie oder Keyword filtern

Verwenden Sie die Filter oder das Suchfeld, um Inhalte nach Kategorie oder Suchbegriff zu finden.


Filtern nach:
Kategorien Titel und Beschreibung Veröffentlichungsdatum
Blog
Gemma 3

Gemma 3 in Google Cloud ausprobieren

In diesem Blogpost werden zwei Codelabs vorgestellt, in denen Entwickler erfahren, wie sie Gemma 3 in Google Cloud bereitstellen können. Dabei wird entweder Cloud Run für einen serverlosen Ansatz oder Google Kubernetes Engine (GKE) für einen Plattformansatz verwendet.

2025-11-17
Blog
Tools

KI-Workflows einfach automatisieren: n8n in Cloud Run bereitstellen

In diesem Blogpost wird erläutert, wie Sie Agents mit dem n8n-Workflow-Automatisierungstool in Cloud Run bereitstellen, um KI-basierte Workflows zu erstellen und in Tools wie Google Workspace zu integrieren.

2025-11-07
Blog
Erweiterungen
Gemini

App-Bereitstellung und Sicherheitsanalyse mit neuen Gemini CLI-Erweiterungen automatisieren

In diesem Blogpost wird die Cloud Run-Erweiterung in der Gemini CLI angekündigt, mit der die Anwendungsbereitstellung mit einem einzigen /deploy-Befehl vereinfacht wird.

2025-09-10
Blog
Erweiterungen
Gemini

Von localhost bis zum Start: KI-App-Bereitstellung mit Cloud Run und Docker Compose vereinfachen

In diesem Blogpost wird eine Zusammenarbeit zwischen Google Cloud und Docker angekündigt, die die Bereitstellung komplexer KI-Anwendungen vereinfacht. Entwickler können ihre compose.yaml-Dateien mit dem Befehl „gcloud run compose up“ direkt in Cloud Run bereitstellen.

2025-07-10
Blog
MCP

Remote-MCP-Server in weniger als 10 Minuten in Google Cloud Run erstellen und bereitstellen

In diesem Blogbeitrag finden Sie eine Schritt-für-Schritt-Anleitung zum Erstellen und Bereitstellen eines sicheren Remote-MCP-Servers (Model Context Protocol) in Google Cloud Run in weniger als 10 Minuten mit FastMCP und zum anschließenden Testen über einen lokalen Client.

2025-06-07
Agents
AI Studio
Blog
MCP

KI-Bereitstellung leicht gemacht: App aus AI Studio oder MCP-kompatiblen KI-Agents in Cloud Run bereitstellen

In diesem Blogpost werden Möglichkeiten zur Vereinfachung von KI-Bereitstellungen vorgestellt, darunter die Bereitstellung mit einem Klick von AI Studio in Cloud Run, die direkte Bereitstellung von Gemma 3-Modellen und ein MCP-Server für agentenbasierte Bereitstellungen.

2025-05-20
Agents
Blog
Anwendungsfälle

50% faster merge and 50% fewer bugs: How CodeRabbit built its AI code review agent with Google Cloud Run

In diesem Artikel wird beschrieben, wie CodeRabbit, ein KI-Tool für die Codeüberprüfung, Cloud Run nutzt, um eine skalierbare und sichere Plattform für die Ausführung nicht vertrauenswürdigen Codes zu erstellen. Dadurch werden die Zeit für die Codeüberprüfung und die Anzahl der Fehler halbiert.

2025-04-22
Blog
Vertex AI

Mit Vertex AI und Cloud Run in weniger als 60 Sekunden gemeinsam nutzbare generative KI-Apps erstellen

In diesem Artikel wird ein Feature in Vertex AI vorgestellt, mit dem Webanwendungen mit nur einem Klick in Cloud Run bereitgestellt werden können. Mit generativen KI-Prompts lässt sich der Prozess der Umwandlung eines generativen KI-Konzepts in einen teilbaren Prototyp optimieren.

2025-02-20
Blog
Bereitstellung

Serverlose KI mit Gemma 3 in Cloud Run bereitstellen

In diesem Blogpost wird Gemma 3 angekündigt, eine Familie von leichtgewichtigen, offenen KI-Modellen. Außerdem wird erläutert, wie Sie sie in Cloud Run für skalierbare und kostengünstige serverlose KI-Anwendungen bereitstellen können.

2025-03-12
Blog
GPUs
Inferenz
RAG
Vertex AI

Inference-as-a-Service mit Cloud Run und Vertex AI nutzen

In diesem Blogpost wird erläutert, wie Entwickler die Entwicklung generativer KI-Anwendungen beschleunigen können, indem sie ein Inference-as-a-Service-Modell in Cloud Run verwenden. So können LLMs mit GPU-Unterstützung gehostet und skaliert und mit Retrieval-Augmented Generation (RAG) für kontextbezogene Antworten integriert werden.

2025-02-20
Architektur
RAG
Vertex AI

RAG-Infrastruktur für generative KI mit Vertex AI und Vektorsuche

In diesem Dokument wird eine Referenzarchitektur für die Entwicklung einer generativen KI-Anwendung mit Retrieval Augmented Generation (RAG) in Google Cloud vorgestellt, bei der die Vektorsuche für den Abgleich von Ähnlichkeiten im großen Maßstab und Vertex AI für die Verwaltung von Einbettungen und Modellen verwendet wird.

2025-03-07
Agents
Antigravity
Video

Stop coding, start architecting: Google Antigravity + Cloud Run

In diesem Video wird Antigravity vorgestellt, die agentenbasierte IDE von Google. Damit können Sie eine Full-Stack-Anwendung von Grund auf erstellen und in Cloud Run bereitstellen. In diesem Video wird gezeigt, wie Sie ein Datenblatt für die KI schreiben, sie zwingen, modernes Node.js zu verwenden (keine Build-Schritte!), und wie sie während der Bereitstellung autonom einen Port-Fehler behebt, indem sie eine Konfigurationsdatei bearbeitet.

2025-12-08
Agents
GPUs
Ollama
Video

Dieser KI-Agent wird in Cloud Run mit NVIDIA-GPUs ausgeführt

In diesem Video wird gezeigt, wie Sie eine echte KI-Agent-Anwendung auf einer serverlosen NVIDIA-GPU erstellen. Sehen Sie sich eine Demo eines intelligenten Gesundheitsagenten an, der Open-Source-Modelle wie Gemma mit Ollama in Cloud Run und LangGraph verwendet, um einen Multi-Agent-Workflow (RAG + Tools) zu erstellen.

2025-11-13
MCP
Video

KI-Agenten mit MCP-Tools in Google Cloud Run unterstützen

In diesem Video wird das MCP (Model Context Protocol) vorgestellt und es wird erläutert, wie es KI-Agentenentwicklern das Leben leichter macht. Hier erfahren Sie, wie Sie einen MCP-Server mit FastMCP erstellen und einen ADK-Agenten in Cloud Run bereitstellen. Sehen Sie sich an, wie der Code die Dienst-zu-Dienst-Authentifizierung mit den integrierten OIDC-Tokens von Cloud Run verarbeitet.

2025-11-06
Model Armor
Sicherheit
Video

Wir haben versucht, unsere KI zu jailbreaken (und Model Armor hat es verhindert)

In diesem Video wird gezeigt, wie Sie mit Google Model Armor Bedrohungen mit einem API-Aufruf blockieren können.

2025-10-30
Benchmarking
Vertex AI
Video

Nicht raten: Benchmarking von KI-Prompts

In diesem Video wird gezeigt, wie Sie mit Vertex AI zuverlässige generative KI-Anwendungen mit den Tools von Google Cloud erstellen. Entwickler erfahren, wie sie Google Cloud-Tools für schnelles Prototyping verwenden, mit datengestützten Benchmarks konkrete Zahlen erhalten und schließlich eine automatisierte CI/CD-Pipeline für eine echte Qualitätssicherung erstellen können. Dabei werden auch häufige Fallstricke vermieden.

2025-10-23
ADK
Multi-Agent
Video

Multi-Agent-App mit dem ADK und Gemini erstellen

In diesem Video wird gezeigt, wie Sie mit dem ADK (Agent Development Toolkit) von Google eine App erstellen, mit der Sie Inhalte optimieren und gemeinsam bearbeiten können. Erfahren Sie, wie zustandsorientierte Multi-Agents besser funktionieren als ein einzelner Agent.

2025-10-16
Gemini
Video

KI-App mit Gemini erstellen, die Videos ansehen kann

In diesem Video wird gezeigt, wie Sie mit Gemini 2.5 Pro eine App erstellen, die YouTube-Videos ansehen und verstehen kann. Mit Smart-Prompts können Sie die Ausgabe Ihrer App für Blogposts, Zusammenfassungen, Quizze und mehr anpassen. In diesem Video wird gezeigt, wie Sie Gemini einbinden, um sowohl Textinhalte als auch Kopfzeilenbilder aus Videoeingaben zu generieren. Außerdem werden Kostenaspekte erläutert und es wird erklärt, wie Sie längere Videos mit Batchanfragen verarbeiten.

2025-10-06
GenAI
Video

GenAI-App in Cloud Run erstellen

In diesem Video werden die Architektur und der Code erläutert. KI wird dabei in jedem Schritt eingesetzt.

2025-07-17
Agents
Firebase
Video

KI-Agents mit Cloud Run und Firebase Genkit erstellen

In diesem Video wird gezeigt, wie Sie KI-Agents mit Cloud Run und Firebase Genkit erstellen, einem serverlosen Tool zum Erstellen von KI-Agents.

2025-07-10
AI Studio
Firebase
Gemini
LLMs
Video

Cloud AI: Es ist nur eine API

In diesem Video wird gezeigt, wie Sie mit AI Studio, Cloud Functions und Firebase Hosting schnell eine Anwendung für den technischen Support erstellen können. Hier erfahren Sie, wie Sie Large Language Models (LLMs) nutzen können, und sehen ein praktisches Beispiel für die Integration von KI in eine herkömmliche Webanwendung.

2025-06-19
ADK
Agents
Frameworks
LangGraph
Vertex AI
Video

KI-Agenten in Google Cloud erstellen

In diesem Video wird gezeigt, wie Sie KI-Agents mit Cloud Run und Vertex AI erstellen und bereitstellen. Sie lernen wichtige Konzepte wie das Aufrufen von Tools, die Modellunabhängigkeit und die Verwendung von Frameworks wie LangGraph und dem Agent Development Kit (ADK) kennen.

2025-05-21
KI-Modelle
GPUs
Ollama
Video

DeepSeek mit Cloud Run-GPUs in drei Schritten hosten

In diesem Video wird gezeigt, wie Sie das Hosting des DeepSeek AI-Modells mit Cloud Run-GPUs vereinfachen können. Hier erfahren Sie, wie Sie Large Language Models (LLMs) mit drei Befehlen in Google Cloud bereitstellen und verwalten. Sehen Sie sich das Video an und entdecken Sie die Funktionen von Cloud Run und dem Ollama-Befehlszeilentool, mit denen Entwickler KI-Anwendungen schnell mit On-Demand-Ressourcenzuweisung und ‑skalierung betreiben können.

2025-04-24
Funktionsaufrufe
Gemini
Video

Gemini-Funktionsaufrufe mit Cloud Run verwenden

In diesem Video wird die Leistungsfähigkeit von Gemini-Funktionsaufrufen erläutert und Sie erfahren, wie Sie externe APIs in Ihre KI-Anwendungen einbinden. Entwickeln Sie eine Wetter-App, die die Verarbeitung von Nutzeranfragen und das Abrufen von Wetterdaten aus einer externen API durch die Verarbeitung natürlicher Sprache von Gemini nutzt. Dies ist ein praktisches Beispiel für Funktionsaufrufe in Aktion.

2025-01-23
Bildgenerierung
Vertex AI
Video

Text-zu-Bild-Funktion mit Vertex AI von Google Cloud auf Cloud Run

In diesem Video wird gezeigt, wie Sie mit Vertex AI in Google Cloud eine Anwendung zur Bildgenerierung erstellen. Mit dem Vertex AI-Modell zur Bildgenerierung können Entwickler beeindruckende Bilder erstellen, ohne dass eine komplexe Infrastruktur oder Modellverwaltung erforderlich ist.

2025-01-16
GPUs
Ollama
Video

Ollama und Cloud Run mit GPUs

In diesem Video wird erläutert, wie Sie mit Ollama Large Language Models ganz einfach in Cloud Run mit GPUs bereitstellen können, um KI-Modelle in der Cloud skalierbar und effizient bereitzustellen.

2024-12-02
Datenschutz
Sicherheit
Video

Sensible Daten in KI-Apps schützen

In diesem Video erfahren Sie, wie Sie vertrauliche Daten in KI-Anwendungen schützen können. Hier finden Sie wichtige Konzepte, Best Practices und Tools zum Schutz von Daten während des gesamten KI-Lebenszyklus.

2024-11-21
LangChain
RAG
Video

RAG mit LangChain in Google Cloud

In diesem Video erfahren Sie, wie Sie die Genauigkeit Ihrer KI-Anwendungen mit Retrieval-Augmented Generation (RAG) verbessern können. Erstellen Sie eine Webanwendung, die die Leistungsfähigkeit von RAG mit LangChain nutzt. Diese Technik macht KI-Antworten genauer und präziser.

2024-11-07
Großes Prompt-Fenster
Modellabstimmung
RAG
Video

RAG im Vergleich zu Modellabstimmung und großem Prompt-Fenster

In diesem Video werden die drei wichtigsten Methoden zum Einbinden Ihrer Daten in KI-Anwendungen behandelt: Prompts mit langen Kontextfenstern, Retrieval-Augmented Generation (RAG) und Modelloptimierung. In dieser Folge von Serverless Expeditions erfahren Sie mehr über die Stärken, Einschränkungen und idealen Anwendungsfälle für die einzelnen Ansätze, damit Sie fundierte Entscheidungen für Ihre KI-Projekte treffen können.

2024-11-14
Prompt Engineering
Video

Prompt Engineering für Entwickler

In diesem Video erfahren Sie, wie Sie mit Prompt Engineering die Qualität von KI-Antworten verbessern können. In diesem Video erfahren Sie, wie Sie mit Chain-of-Thought-, Few-Shot- und Multi-Shot-Prompting-Techniken genauere und relevantere Antworten von generativer KI erhalten.

2024-10-31
KI-Modelle
GPUs
LLMs
Video

GPU-basiertes LLM in Cloud Run bereitstellen

In diesem Video wird gezeigt, wie Sie Ihr eigenes GPU-basiertes Large Language Model (LLM) in Cloud Run bereitstellen können. In diesem Video wird gezeigt, wie Sie ein Open-Source-Modell wie Gemma als skalierbaren, serverlosen Dienst mit GPU-Beschleunigung bereitstellen.

2024-10-06
GPUs
LLMs
Ollama
Video

GPUs in Cloud Run verwenden

In diesem Video wird gezeigt, wie Sie Gemma 2 von Google, ein Open-Source-Large Language Model, über Ollama in Cloud Run bereitstellen.

2024-10-03
Gemini
LLMs
Video

KI-Chat-Apps in Google Cloud erstellen

In diesem Video wird gezeigt, wie Sie eine Chat-App mit einem Large Language Model (LLM) auf Gemini erstellen.

2024-08-29
Multimodal
Vertex AI
Video

Multimodale KI

In diesem Video wird gezeigt, wie Sie mit Vertex AI eine multimodale Anwendung erstellen, die Video-, Audio- und Textdaten verarbeitet, um eine Ausgabe zu generieren.

2024-08-15
KI-Modelle
Vertex AI
Video

Serverless Generative AI verwenden | Google Vertex AI

In diesem Video wird gezeigt, wie Sie mit Vertex AI Studio, Cloud Run und generativen KI-Modellen blitzschnelle generative KI-Apps erstellen und bereitstellen.

2024-02-22
Codelab
Tools

n8n in Google Cloud Run bereitstellen und ausführen

In diesem Codelab wird gezeigt, wie Sie eine produktionsreife Instanz des Workflow-Automatisierungstools n8n in Cloud Run bereitstellen. Dazu gehören eine Cloud SQL-Datenbank für die Persistenz und Secret Manager für vertrauliche Daten.

2025-11-20
Codelab
GPUs
LLM

LLM-Inferenz auf Cloud Run-GPUs mit vLLM und dem OpenAI Python SDK ausführen

In diesem Codelab wird gezeigt, wie Sie das auf Anweisungen abgestimmte Modell Gemma 2 2b von Google mit GPUs in Cloud Run bereitstellen. Dabei wird vLLM als Inferenz-Engine und das OpenAI Python SDK für die Satzvervollständigung verwendet.

2025-11-13
ADK
Agents
Codelab

ADK-KI-Agenten in Cloud Run bereitstellen, verwalten und beobachten

In diesem Codelab erfahren Sie, wie Sie einen leistungsstarken Agenten, der mit dem Agent Development Kit (ADK) erstellt wurde, in Cloud Run bereitstellen, verwalten und überwachen.

2025-11-12
Codelab
Gemini CLI
MCP

Sicheren MCP-Server in Cloud Run bereitstellen

In diesem Codelab erfahren Sie, wie Sie einen sicheren MCP-Server (Model Context Protocol) in Cloud Run bereitstellen und über die Gemini CLI eine Verbindung zu ihm herstellen.

2025-10-28
ADK
Agents
Codelab
MCP

ADK-KI-Agenten erstellen und bereitstellen, der einen MCP-Server in Cloud Run verwendet

In diesem Codelab erfahren Sie, wie Sie mit dem Agent Development Kit (ADK) einen KI-Agenten mit Tools erstellen und bereitstellen. Der KI-Agent stellt eine Verbindung zu einem Remote-MCP-Server her, um die Tools zu verwenden, und wird als Container in Cloud Run bereitgestellt.

2025-10-27
KI-Modelle
Cloud Run-Jobs
Codelab
Modellabstimmung

LLM mit Cloud Run-Jobs abstimmen

In diesem Codelab wird Schritt für Schritt beschrieben, wie Sie Cloud Run-Jobs mit GPUs verwenden, um ein Gemma 3-Modell für das Text2Emoji-Dataset zu optimieren und das resultierende Modell dann in einem Cloud Run-Dienst mit vLLM bereitzustellen.

2025-10-21
Batch-Inferenz
Cloud Run-Jobs
Codelab

Batch-Inferenz in Cloud Run-Jobs ausführen

In diesem Codelab wird gezeigt, wie Sie einen GPU-basierten Cloud Run-Job verwenden, um Batchinferenz für ein Llama 3.2-1b-Modell auszuführen und die Ergebnisse direkt in einen Cloud Storage-Bucket zu schreiben.

2025-10-21
ADK
Agents
Codelab
GPUs
LLMs
MCP

Lab 3:Vom Prototyp zur Produktion – ADK-KI-Agenten in Cloud Run mit GPU bereitstellen

In diesem Codelab wird gezeigt, wie Sie einen produktionsreifen ADK-Agenten (Agent Development Kit) mit einem GPU-beschleunigten Gemma-Backend in Cloud Run bereitstellen. In diesem Codelab geht es um Bereitstellung, Integration und Leistungstests.

2025-10-03
Agents
Codelab

Gradio-Frontend-App bereitstellen, die einen Backend-ADK-KI-Agenten aufruft, wobei beide in Cloud Run ausgeführt werden

In diesem Codelab wird gezeigt, wie Sie eine zweistufige Anwendung in Cloud Run bereitstellen, die aus einem Gradio-Frontend und einem ADK-Agent-Backend besteht. Der Schwerpunkt liegt dabei auf der Implementierung einer sicheren, authentifizierten Dienst-zu-Dienst-Kommunikation.

2025-09-29
Codelab
Gemini

FastAPI-Chatbot-App mit Gemini in Cloud Run bereitstellen

In diesem Codelab erfahren Sie, wie Sie eine FastAPI-Chatbot-App in Cloud Run bereitstellen.

2025-04-02
Cloud Run Functions
Codelab
LLMs

LLM in einem Sidecar für eine Cloud Run-Funktion hosten

In diesem Codelab erfahren Sie, wie Sie ein gemma3:4b-Modell in einem Sidecar für eine Cloud Run-Funktion hosten.

2025-03-27
Community
Sicherheit

Cloud Run-Dienst von überall aus sicher aufrufen

In diesem Artikel finden Sie ein Python-Codebeispiel, mit dem ein Identitätstoken abgerufen wird, um einen authentifizierten Cloud Run-Dienst sicher aus einer beliebigen Umgebung aufzurufen. Im Beispiel werden Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) verwendet, um den Aufruf zu authentifizieren.

2025-10-15
KI-Modelle
Community
RAG

Serverless AI: EmbeddingGemma with Cloud Run

In diesem Artikel finden Sie eine Schritt-für-Schritt-Anleitung, wie Sie das EmbeddingGemma-Modell in einen Container packen und mit GPUs in Cloud Run bereitstellen und dann damit eine RAG-Anwendung erstellen.

2025-09-24
Community
Sicherheit

Chain of Trust for AI: Securing MCP Toolbox Architecture on Cloud Run

In diesem Artikel wird eine einfache Hotelbuchungsanwendung, die in Google Cloud erstellt wurde, analysiert. Es wird ein robustes Zero-Trust-Sicherheitsmodell mit Dienstidentitäten demonstriert und gezeigt, wie eine sichere Vertrauenskette vom Endnutzer bis zur Datenbank aufgebaut wird.

2025-09-03
KI-Modelle
Community
Containerisierung
Docker
Ollama
RAG

Serverless AI: Qwen3 Embeddings with Cloud Run

In diesem Artikel finden Sie eine Anleitung zum Bereitstellen des Qwen3-Embedding-Modells auf Cloud Run mit GPUs. Der Artikel behandelt auch die Containerisierung mit Docker und Ollama und enthält ein Beispiel für die Verwendung in einer RAG-Anwendung.

2025-08-20
Architektur
Community
LLMs

Verpacken Sie KI-Modelle immer noch in Containern? So geht es in Cloud Run

In diesem Artikel wird eine effizientere und skalierbare Architektur für die Bereitstellung von Large Language Models (LLMs) in Cloud Run vorgestellt, bei der Modelldateien vom Anwendungscontainer entkoppelt und stattdessen Cloud Storage FUSE verwendet wird.

2025-08-11
KI-Modelle
Community

KI‑gestützten Podcast-Generator mit Gemini und Cloud Run erstellen

In diesem Artikel wird beschrieben, wie Sie einen serverlosen KI-basierten Podcast-Generator erstellen, der Gemini für die Zusammenfassung von Inhalten und Cloud Run verwendet. In diesem Beispiel wird die automatisierte Pipeline zum Generieren und Bereitstellen täglicher Audio-Briefings aus RSS-Feeds orchestriert.

2025-08-11
Community
MCP

MCP-Server mit Google Cloud Run betreiben

In diesem Artikel wird der Zweck des Model Context Protocol (MCP) erläutert. Außerdem finden Sie hier eine Anleitung zum Erstellen und Bereitstellen eines MCP-Servers in Cloud Run, um Ressourcen als Tools für KI-Anwendungen bereitzustellen.

2025-07-09
Community
ML-Modelle
Monitoring

ML-Modelle mit Cloud Run bereitstellen und überwachen – schlank, skalierbar und kosteneffizient

In diesem Artikel wird beschrieben, wie Sie ein Machine-Learning-Modell in Cloud Run bereitstellen, überwachen und automatisch skalieren. Dabei wird ein schlanker Überwachungsstack mit Google Cloud-Diensten verwendet, um die Leistung zu verfolgen und die Kosten zu kontrollieren.

2025-05-29
KI-Modelle
AI Studio
Community
LLMs

Gemma direkt aus AI Studio in Cloud Run bereitstellen

In diesem Artikel finden Sie eine detaillierte Anleitung dazu, wie Sie ein Gemma-Modell aus AI Studio übernehmen, den Code für die Produktion anpassen und es als containerisierte Webanwendung in Cloud Run bereitstellen.

2025-05-29
ADK
Agents
Community
MCP

Die Triade der Agent-Architektur: ADK, MCP und Cloud Run

In diesem Artikel wird gezeigt, wie Sie eine KI-Agentenarchitektur erstellen, indem Sie einen ADK-Workflow (Agent Development Kit) einrichten, der mit einem MCP-Server (Model Context Protocol) kommuniziert, der in Cloud Run gehostet wird, um Flugbuchungen zu verwalten.

2025-05-27
A2A
Agents
Community
Frameworks
Anwendungsfälle

Agent2Agent-Protokoll (A2A) mit dem Anwendungsfall „Einkaufs-Concierge“ in Cloud Run

In diesem Artikel wird das Agent2Agent-Protokoll (A2A) erläutert und seine Verwendung mit einer Anwendung für den Kauf-Concierge demonstriert. Die Cloud Run-App enthält mehrere KI-Agents, die mit verschiedenen Frameworks erstellt wurden und zusammenarbeiten, um die Bestellung eines Nutzers auszuführen.

2025-05-15
KI-Modelle
Automatisierung
CI/CD
Community
GitHub

Bereitstellung von ML-Modellen mit GitHub Actions und Cloud Run automatisieren

In diesem Artikel finden Sie eine umfassende Anleitung zum Erstellen einer CI/CD-Pipeline mit GitHub Actions, um das Erstellen und Bereitstellen von Modellen für maschinelles Lernen als containerisierte Dienste in Cloud Run zu automatisieren.

2025-05-08
Community
LLMs
Sicherheit

Sovereign AI-Lösungen mit Google Cloud erstellen – Cloud Run

In diesem Artikel finden Sie eine detaillierte Anleitung zum Erstellen und Bereitstellen einer souveränen KI-Lösung in Google Cloud mit Sovereign Controls by Partners. In den Beispielen wird ein Gemma-Modell in Cloud Run ausgeführt, um den Datenstandort und die Einhaltung europäischer Vorschriften zu gewährleisten.

2025-04-03
Community
LLMs

Auf dem Weg zur Arbeit von Null zu Deepseek auf Cloud Run

In diesem Artikel wird gezeigt, wie Sie das Deepseek R1-Modell mit Ollama schnell in Cloud Run mit GPUs bereitstellen können. In diesem Artikel werden erweiterte Themen wie das Einbetten des Modells in den Container, A/B-Tests mit Traffic-Aufteilung und das Hinzufügen einer Web-UI mit einem Sidecar-Container behandelt.

2025-02-11
Community
LLMs
Ollama

Ausführen (beliebiger) offener LLMs mit Ollama in Google Cloud Run [Schritt-für-Schritt-Anleitung]

In diesem Artikel wird beschrieben, wie Sie ein beliebiges offenes LLM wie Gemma 2 mit Ollama in Google Cloud Run hosten. Der Artikel enthält auch eine Anleitung zum Erstellen eines Cloud Storage-Bucket für die Modellpersistenz und zum Testen der Bereitstellung.

2025-01-20
Community
ML-Modelle

Bereitstellung von serverlosen Machine-Learning-Modellen mit GPUs mit Google Cloud: Cloud Run

In diesem Artikel wird Schritt für Schritt beschrieben, wie Sie ein Modell für maschinelles Lernen (ML) mit GPU-Unterstützung in Cloud Run bereitstellen. Der Artikel behandelt alles von der Projekteinrichtung und Containerisierung bis hin zur automatisierten Bereitstellung mit Cloud Build und Tests mit curl und JavaScript.

2025-01-17