Auf dieser Seite finden Sie eine ausgewählte Liste von Ressourcen, die Ihnen beim Erstellen und Bereitstellen von KI-Lösungen in Cloud Run helfen.
Cloud Run ist eine vollständig verwaltete Anwendungsplattform, mit der Sie Ihren Code, Ihre Funktion oder Ihren Container auf der hoch skalierbaren Infrastruktur von Google ausführen können. Mit Cloud Run können Sie verschiedene KI-Lösungen ausführen, z. B. KI-Inferenzendpunkte, APIs für generative Modelle und vollständige RAG-Pipelines (Retrieval-Augmented Generation).
Über die Kategorien und Links unten können Sie auf offizielle Leitfäden, Schnellstarts und wertvolle Community-Inhalte zugreifen. Die Dokumentation und Empfehlungen für Cloud Run finden Sie unter KI-Lösungen in Cloud Run.
Hinweis zu Community-Ressourcen
Inhalte, die als „Community“ gekennzeichnet sind, sind ausgewählte Ressourcen aus der Entwickler-Community und werden nicht von Google entwickelt oder verwaltet. Beachten Sie bei der Verwendung dieser Ressourcen die folgenden Hinweise:
- Sicherheitsüberprüfung:Überprüfen Sie den Code immer sorgfältig, insbesondere wie er mit privaten Informationen, Nutzereingaben und Netzwerkzugriff umgeht.
- Einstellung und Updates:Community-Code kann veraltet sein oder ohne Vorwarnung nicht mehr mit neuen Cloud Run-Funktionen oder KI-Versionen funktionieren. Prüfen Sie das Datum der letzten Aktualisierung und ob die App noch aktiv gewartet wird.
- Kosteneffizienz:Diese Setups sind zwar oft auf niedrige Kosten ausgerichtet, folgen aber möglicherweise nicht den Best Practices von Google zum Sparen von Geld in Live-Projekten. Behalten Sie Ihre Abrechnung im Blick.
- Lizenzkonformität:Sie müssen die Open-Source-Lizenz für Community-Code oder Bibliotheken, die Sie Ihrer Anwendung hinzufügen, verstehen und einhalten.
- Vor der Bereitstellung testen:Prüfen Sie alle wichtigen Einstellungen und testen Sie Community-Lösungen in einer Testumgebung, bevor Sie sie für Live-Projekte verwenden.
Nach Kategorie oder Keyword filtern
Verwenden Sie die Filter oder das Suchfeld, um Inhalte nach Kategorie oder Suchbegriff zu finden.
| Kategorien | Titel und Beschreibung | Veröffentlichungsdatum |
|---|---|---|
|
Blog
Gemma 3
|
Gemma 3 in Google Cloud ausprobieren In diesem Blogpost werden zwei Codelabs vorgestellt, in denen Entwickler erfahren, wie sie Gemma 3 in Google Cloud bereitstellen können. Dabei wird entweder Cloud Run für einen serverlosen Ansatz oder Google Kubernetes Engine (GKE) für einen Plattformansatz verwendet. |
2025-11-17 |
|
Blog
Tools
|
KI-Workflows einfach automatisieren: n8n in Cloud Run bereitstellen In diesem Blogpost wird erläutert, wie Sie Agents mit dem n8n-Workflow-Automatisierungstool in Cloud Run bereitstellen, um KI-basierte Workflows zu erstellen und in Tools wie Google Workspace zu integrieren. |
2025-11-07 |
|
Blog
Erweiterungen
Gemini
|
App-Bereitstellung und Sicherheitsanalyse mit neuen Gemini CLI-Erweiterungen automatisieren In diesem Blogpost wird die Cloud Run-Erweiterung in der Gemini CLI angekündigt, mit der die Anwendungsbereitstellung mit einem einzigen /deploy-Befehl vereinfacht wird. |
2025-09-10 |
|
Blog
Erweiterungen
Gemini
|
Von localhost bis zum Start: KI-App-Bereitstellung mit Cloud Run und Docker Compose vereinfachen In diesem Blogpost wird eine Zusammenarbeit zwischen Google Cloud und Docker angekündigt, die die Bereitstellung komplexer KI-Anwendungen vereinfacht. Entwickler können ihre compose.yaml-Dateien mit dem Befehl „gcloud run compose up“ direkt in Cloud Run bereitstellen. |
2025-07-10 |
|
Blog
MCP
|
Remote-MCP-Server in weniger als 10 Minuten in Google Cloud Run erstellen und bereitstellen In diesem Blogbeitrag finden Sie eine Schritt-für-Schritt-Anleitung zum Erstellen und Bereitstellen eines sicheren Remote-MCP-Servers (Model Context Protocol) in Google Cloud Run in weniger als 10 Minuten mit FastMCP und zum anschließenden Testen über einen lokalen Client. |
2025-06-07 |
|
Agents
AI Studio
Blog
MCP
|
In diesem Blogpost werden Möglichkeiten zur Vereinfachung von KI-Bereitstellungen vorgestellt, darunter die Bereitstellung mit einem Klick von AI Studio in Cloud Run, die direkte Bereitstellung von Gemma 3-Modellen und ein MCP-Server für agentenbasierte Bereitstellungen. |
2025-05-20 |
|
Agents
Blog
Anwendungsfälle
|
In diesem Artikel wird beschrieben, wie CodeRabbit, ein KI-Tool für die Codeüberprüfung, Cloud Run nutzt, um eine skalierbare und sichere Plattform für die Ausführung nicht vertrauenswürdigen Codes zu erstellen. Dadurch werden die Zeit für die Codeüberprüfung und die Anzahl der Fehler halbiert. |
2025-04-22 |
|
Blog
Vertex AI
|
In diesem Artikel wird ein Feature in Vertex AI vorgestellt, mit dem Webanwendungen mit nur einem Klick in Cloud Run bereitgestellt werden können. Mit generativen KI-Prompts lässt sich der Prozess der Umwandlung eines generativen KI-Konzepts in einen teilbaren Prototyp optimieren. |
2025-02-20 |
|
Blog
Bereitstellung
|
Serverlose KI mit Gemma 3 in Cloud Run bereitstellen In diesem Blogpost wird Gemma 3 angekündigt, eine Familie von leichtgewichtigen, offenen KI-Modellen. Außerdem wird erläutert, wie Sie sie in Cloud Run für skalierbare und kostengünstige serverlose KI-Anwendungen bereitstellen können. |
2025-03-12 |
|
Blog
GPUs
Inferenz
RAG
Vertex AI
|
Inference-as-a-Service mit Cloud Run und Vertex AI nutzen In diesem Blogpost wird erläutert, wie Entwickler die Entwicklung generativer KI-Anwendungen beschleunigen können, indem sie ein Inference-as-a-Service-Modell in Cloud Run verwenden. So können LLMs mit GPU-Unterstützung gehostet und skaliert und mit Retrieval-Augmented Generation (RAG) für kontextbezogene Antworten integriert werden. |
2025-02-20 |
|
Architektur
RAG
Vertex AI
|
RAG-Infrastruktur für generative KI mit Vertex AI und Vektorsuche In diesem Dokument wird eine Referenzarchitektur für die Entwicklung einer generativen KI-Anwendung mit Retrieval Augmented Generation (RAG) in Google Cloud vorgestellt, bei der die Vektorsuche für den Abgleich von Ähnlichkeiten im großen Maßstab und Vertex AI für die Verwaltung von Einbettungen und Modellen verwendet wird. |
2025-03-07 |
|
Agents
Antigravity
Video
|
Stop coding, start architecting: Google Antigravity + Cloud Run In diesem Video wird Antigravity vorgestellt, die agentenbasierte IDE von Google. Damit können Sie eine Full-Stack-Anwendung von Grund auf erstellen und in Cloud Run bereitstellen. In diesem Video wird gezeigt, wie Sie ein Datenblatt für die KI schreiben, sie zwingen, modernes Node.js zu verwenden (keine Build-Schritte!), und wie sie während der Bereitstellung autonom einen Port-Fehler behebt, indem sie eine Konfigurationsdatei bearbeitet. |
2025-12-08 |
|
Agents
GPUs
Ollama
Video
|
Dieser KI-Agent wird in Cloud Run mit NVIDIA-GPUs ausgeführt In diesem Video wird gezeigt, wie Sie eine echte KI-Agent-Anwendung auf einer serverlosen NVIDIA-GPU erstellen. Sehen Sie sich eine Demo eines intelligenten Gesundheitsagenten an, der Open-Source-Modelle wie Gemma mit Ollama in Cloud Run und LangGraph verwendet, um einen Multi-Agent-Workflow (RAG + Tools) zu erstellen. |
2025-11-13 |
|
MCP
Video
|
KI-Agenten mit MCP-Tools in Google Cloud Run unterstützen In diesem Video wird das MCP (Model Context Protocol) vorgestellt und es wird erläutert, wie es KI-Agentenentwicklern das Leben leichter macht. Hier erfahren Sie, wie Sie einen MCP-Server mit FastMCP erstellen und einen ADK-Agenten in Cloud Run bereitstellen. Sehen Sie sich an, wie der Code die Dienst-zu-Dienst-Authentifizierung mit den integrierten OIDC-Tokens von Cloud Run verarbeitet. |
2025-11-06 |
|
Model Armor
Sicherheit
Video
|
Wir haben versucht, unsere KI zu jailbreaken (und Model Armor hat es verhindert) In diesem Video wird gezeigt, wie Sie mit Google Model Armor Bedrohungen mit einem API-Aufruf blockieren können. |
2025-10-30 |
|
Benchmarking
Vertex AI
Video
|
Nicht raten: Benchmarking von KI-Prompts In diesem Video wird gezeigt, wie Sie mit Vertex AI zuverlässige generative KI-Anwendungen mit den Tools von Google Cloud erstellen. Entwickler erfahren, wie sie Google Cloud-Tools für schnelles Prototyping verwenden, mit datengestützten Benchmarks konkrete Zahlen erhalten und schließlich eine automatisierte CI/CD-Pipeline für eine echte Qualitätssicherung erstellen können. Dabei werden auch häufige Fallstricke vermieden. |
2025-10-23 |
|
ADK
Multi-Agent
Video
|
Multi-Agent-App mit dem ADK und Gemini erstellen In diesem Video wird gezeigt, wie Sie mit dem ADK (Agent Development Toolkit) von Google eine App erstellen, mit der Sie Inhalte optimieren und gemeinsam bearbeiten können. Erfahren Sie, wie zustandsorientierte Multi-Agents besser funktionieren als ein einzelner Agent. |
2025-10-16 |
|
Gemini
Video
|
KI-App mit Gemini erstellen, die Videos ansehen kann In diesem Video wird gezeigt, wie Sie mit Gemini 2.5 Pro eine App erstellen, die YouTube-Videos ansehen und verstehen kann. Mit Smart-Prompts können Sie die Ausgabe Ihrer App für Blogposts, Zusammenfassungen, Quizze und mehr anpassen. In diesem Video wird gezeigt, wie Sie Gemini einbinden, um sowohl Textinhalte als auch Kopfzeilenbilder aus Videoeingaben zu generieren. Außerdem werden Kostenaspekte erläutert und es wird erklärt, wie Sie längere Videos mit Batchanfragen verarbeiten. |
2025-10-06 |
|
GenAI
Video
|
GenAI-App in Cloud Run erstellen In diesem Video werden die Architektur und der Code erläutert. KI wird dabei in jedem Schritt eingesetzt. |
2025-07-17 |
|
Agents
Firebase
Video
|
KI-Agents mit Cloud Run und Firebase Genkit erstellen In diesem Video wird gezeigt, wie Sie KI-Agents mit Cloud Run und Firebase Genkit erstellen, einem serverlosen Tool zum Erstellen von KI-Agents. |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLMs
Video
|
In diesem Video wird gezeigt, wie Sie mit AI Studio, Cloud Functions und Firebase Hosting schnell eine Anwendung für den technischen Support erstellen können. Hier erfahren Sie, wie Sie Large Language Models (LLMs) nutzen können, und sehen ein praktisches Beispiel für die Integration von KI in eine herkömmliche Webanwendung. |
2025-06-19 |
|
ADK
Agents
Frameworks
LangGraph
Vertex AI
Video
|
KI-Agenten in Google Cloud erstellen In diesem Video wird gezeigt, wie Sie KI-Agents mit Cloud Run und Vertex AI erstellen und bereitstellen. Sie lernen wichtige Konzepte wie das Aufrufen von Tools, die Modellunabhängigkeit und die Verwendung von Frameworks wie LangGraph und dem Agent Development Kit (ADK) kennen. |
2025-05-21 |
|
KI-Modelle
GPUs
Ollama
Video
|
DeepSeek mit Cloud Run-GPUs in drei Schritten hosten In diesem Video wird gezeigt, wie Sie das Hosting des DeepSeek AI-Modells mit Cloud Run-GPUs vereinfachen können. Hier erfahren Sie, wie Sie Large Language Models (LLMs) mit drei Befehlen in Google Cloud bereitstellen und verwalten. Sehen Sie sich das Video an und entdecken Sie die Funktionen von Cloud Run und dem Ollama-Befehlszeilentool, mit denen Entwickler KI-Anwendungen schnell mit On-Demand-Ressourcenzuweisung und ‑skalierung betreiben können. |
2025-04-24 |
|
Funktionsaufrufe
Gemini
Video
|
Gemini-Funktionsaufrufe mit Cloud Run verwenden In diesem Video wird die Leistungsfähigkeit von Gemini-Funktionsaufrufen erläutert und Sie erfahren, wie Sie externe APIs in Ihre KI-Anwendungen einbinden. Entwickeln Sie eine Wetter-App, die die Verarbeitung von Nutzeranfragen und das Abrufen von Wetterdaten aus einer externen API durch die Verarbeitung natürlicher Sprache von Gemini nutzt. Dies ist ein praktisches Beispiel für Funktionsaufrufe in Aktion. |
2025-01-23 |
|
Bildgenerierung
Vertex AI
Video
|
Text-zu-Bild-Funktion mit Vertex AI von Google Cloud auf Cloud Run In diesem Video wird gezeigt, wie Sie mit Vertex AI in Google Cloud eine Anwendung zur Bildgenerierung erstellen. Mit dem Vertex AI-Modell zur Bildgenerierung können Entwickler beeindruckende Bilder erstellen, ohne dass eine komplexe Infrastruktur oder Modellverwaltung erforderlich ist. |
2025-01-16 |
|
GPUs
Ollama
Video
|
In diesem Video wird erläutert, wie Sie mit Ollama Large Language Models ganz einfach in Cloud Run mit GPUs bereitstellen können, um KI-Modelle in der Cloud skalierbar und effizient bereitzustellen. |
2024-12-02 |
|
Datenschutz
Sicherheit
Video
|
Sensible Daten in KI-Apps schützen In diesem Video erfahren Sie, wie Sie vertrauliche Daten in KI-Anwendungen schützen können. Hier finden Sie wichtige Konzepte, Best Practices und Tools zum Schutz von Daten während des gesamten KI-Lebenszyklus. |
2024-11-21 |
|
LangChain
RAG
Video
|
RAG mit LangChain in Google Cloud In diesem Video erfahren Sie, wie Sie die Genauigkeit Ihrer KI-Anwendungen mit Retrieval-Augmented Generation (RAG) verbessern können. Erstellen Sie eine Webanwendung, die die Leistungsfähigkeit von RAG mit LangChain nutzt. Diese Technik macht KI-Antworten genauer und präziser. |
2024-11-07 |
|
Großes Prompt-Fenster
Modellabstimmung
RAG
Video
|
RAG im Vergleich zu Modellabstimmung und großem Prompt-Fenster In diesem Video werden die drei wichtigsten Methoden zum Einbinden Ihrer Daten in KI-Anwendungen behandelt: Prompts mit langen Kontextfenstern, Retrieval-Augmented Generation (RAG) und Modelloptimierung. In dieser Folge von Serverless Expeditions erfahren Sie mehr über die Stärken, Einschränkungen und idealen Anwendungsfälle für die einzelnen Ansätze, damit Sie fundierte Entscheidungen für Ihre KI-Projekte treffen können. |
2024-11-14 |
|
Prompt Engineering
Video
|
Prompt Engineering für Entwickler In diesem Video erfahren Sie, wie Sie mit Prompt Engineering die Qualität von KI-Antworten verbessern können. In diesem Video erfahren Sie, wie Sie mit Chain-of-Thought-, Few-Shot- und Multi-Shot-Prompting-Techniken genauere und relevantere Antworten von generativer KI erhalten. |
2024-10-31 |
|
KI-Modelle
GPUs
LLMs
Video
|
GPU-basiertes LLM in Cloud Run bereitstellen In diesem Video wird gezeigt, wie Sie Ihr eigenes GPU-basiertes Large Language Model (LLM) in Cloud Run bereitstellen können. In diesem Video wird gezeigt, wie Sie ein Open-Source-Modell wie Gemma als skalierbaren, serverlosen Dienst mit GPU-Beschleunigung bereitstellen. |
2024-10-06 |
|
GPUs
LLMs
Ollama
Video
|
In diesem Video wird gezeigt, wie Sie Gemma 2 von Google, ein Open-Source-Large Language Model, über Ollama in Cloud Run bereitstellen. |
2024-10-03 |
|
Gemini
LLMs
Video
|
KI-Chat-Apps in Google Cloud erstellen In diesem Video wird gezeigt, wie Sie eine Chat-App mit einem Large Language Model (LLM) auf Gemini erstellen. |
2024-08-29 |
|
Multimodal
Vertex AI
Video
|
In diesem Video wird gezeigt, wie Sie mit Vertex AI eine multimodale Anwendung erstellen, die Video-, Audio- und Textdaten verarbeitet, um eine Ausgabe zu generieren. |
2024-08-15 |
|
KI-Modelle
Vertex AI
Video
|
Serverless Generative AI verwenden | Google Vertex AI In diesem Video wird gezeigt, wie Sie mit Vertex AI Studio, Cloud Run und generativen KI-Modellen blitzschnelle generative KI-Apps erstellen und bereitstellen. |
2024-02-22 |
|
Codelab
Tools
|
n8n in Google Cloud Run bereitstellen und ausführen In diesem Codelab wird gezeigt, wie Sie eine produktionsreife Instanz des Workflow-Automatisierungstools n8n in Cloud Run bereitstellen. Dazu gehören eine Cloud SQL-Datenbank für die Persistenz und Secret Manager für vertrauliche Daten. |
2025-11-20 |
|
Codelab
GPUs
LLM
|
LLM-Inferenz auf Cloud Run-GPUs mit vLLM und dem OpenAI Python SDK ausführen In diesem Codelab wird gezeigt, wie Sie das auf Anweisungen abgestimmte Modell Gemma 2 2b von Google mit GPUs in Cloud Run bereitstellen. Dabei wird vLLM als Inferenz-Engine und das OpenAI Python SDK für die Satzvervollständigung verwendet. |
2025-11-13 |
|
ADK
Agents
Codelab
|
ADK-KI-Agenten in Cloud Run bereitstellen, verwalten und beobachten In diesem Codelab erfahren Sie, wie Sie einen leistungsstarken Agenten, der mit dem Agent Development Kit (ADK) erstellt wurde, in Cloud Run bereitstellen, verwalten und überwachen. |
2025-11-12 |
|
Codelab
Gemini CLI
MCP
|
Sicheren MCP-Server in Cloud Run bereitstellen In diesem Codelab erfahren Sie, wie Sie einen sicheren MCP-Server (Model Context Protocol) in Cloud Run bereitstellen und über die Gemini CLI eine Verbindung zu ihm herstellen. |
2025-10-28 |
|
ADK
Agents
Codelab
MCP
|
ADK-KI-Agenten erstellen und bereitstellen, der einen MCP-Server in Cloud Run verwendet In diesem Codelab erfahren Sie, wie Sie mit dem Agent Development Kit (ADK) einen KI-Agenten mit Tools erstellen und bereitstellen. Der KI-Agent stellt eine Verbindung zu einem Remote-MCP-Server her, um die Tools zu verwenden, und wird als Container in Cloud Run bereitgestellt. |
2025-10-27 |
|
KI-Modelle
Cloud Run-Jobs
Codelab
Modellabstimmung
|
LLM mit Cloud Run-Jobs abstimmen In diesem Codelab wird Schritt für Schritt beschrieben, wie Sie Cloud Run-Jobs mit GPUs verwenden, um ein Gemma 3-Modell für das Text2Emoji-Dataset zu optimieren und das resultierende Modell dann in einem Cloud Run-Dienst mit vLLM bereitzustellen. |
2025-10-21 |
|
Batch-Inferenz
Cloud Run-Jobs
Codelab
|
Batch-Inferenz in Cloud Run-Jobs ausführen In diesem Codelab wird gezeigt, wie Sie einen GPU-basierten Cloud Run-Job verwenden, um Batchinferenz für ein Llama 3.2-1b-Modell auszuführen und die Ergebnisse direkt in einen Cloud Storage-Bucket zu schreiben. |
2025-10-21 |
|
ADK
Agents
Codelab
GPUs
LLMs
MCP
|
Lab 3:Vom Prototyp zur Produktion – ADK-KI-Agenten in Cloud Run mit GPU bereitstellen In diesem Codelab wird gezeigt, wie Sie einen produktionsreifen ADK-Agenten (Agent Development Kit) mit einem GPU-beschleunigten Gemma-Backend in Cloud Run bereitstellen. In diesem Codelab geht es um Bereitstellung, Integration und Leistungstests. |
2025-10-03 |
|
Agents
Codelab
|
In diesem Codelab wird gezeigt, wie Sie eine zweistufige Anwendung in Cloud Run bereitstellen, die aus einem Gradio-Frontend und einem ADK-Agent-Backend besteht. Der Schwerpunkt liegt dabei auf der Implementierung einer sicheren, authentifizierten Dienst-zu-Dienst-Kommunikation. |
2025-09-29 |
|
Codelab
Gemini
|
FastAPI-Chatbot-App mit Gemini in Cloud Run bereitstellen In diesem Codelab erfahren Sie, wie Sie eine FastAPI-Chatbot-App in Cloud Run bereitstellen. |
2025-04-02 |
|
Cloud Run Functions
Codelab
LLMs
|
LLM in einem Sidecar für eine Cloud Run-Funktion hosten In diesem Codelab erfahren Sie, wie Sie ein gemma3:4b-Modell in einem Sidecar für eine Cloud Run-Funktion hosten. |
2025-03-27 |
|
Community
Sicherheit
|
Cloud Run-Dienst von überall aus sicher aufrufen In diesem Artikel finden Sie ein Python-Codebeispiel, mit dem ein Identitätstoken abgerufen wird, um einen authentifizierten Cloud Run-Dienst sicher aus einer beliebigen Umgebung aufzurufen. Im Beispiel werden Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) verwendet, um den Aufruf zu authentifizieren. |
2025-10-15 |
|
KI-Modelle
Community
RAG
|
Serverless AI: EmbeddingGemma with Cloud Run In diesem Artikel finden Sie eine Schritt-für-Schritt-Anleitung, wie Sie das EmbeddingGemma-Modell in einen Container packen und mit GPUs in Cloud Run bereitstellen und dann damit eine RAG-Anwendung erstellen. |
2025-09-24 |
|
Community
Sicherheit
|
Chain of Trust for AI: Securing MCP Toolbox Architecture on Cloud Run In diesem Artikel wird eine einfache Hotelbuchungsanwendung, die in Google Cloud erstellt wurde, analysiert. Es wird ein robustes Zero-Trust-Sicherheitsmodell mit Dienstidentitäten demonstriert und gezeigt, wie eine sichere Vertrauenskette vom Endnutzer bis zur Datenbank aufgebaut wird. |
2025-09-03 |
|
KI-Modelle
Community
Containerisierung
Docker
Ollama
RAG
|
Serverless AI: Qwen3 Embeddings with Cloud Run In diesem Artikel finden Sie eine Anleitung zum Bereitstellen des Qwen3-Embedding-Modells auf Cloud Run mit GPUs. Der Artikel behandelt auch die Containerisierung mit Docker und Ollama und enthält ein Beispiel für die Verwendung in einer RAG-Anwendung. |
2025-08-20 |
|
Architektur
Community
LLMs
|
Verpacken Sie KI-Modelle immer noch in Containern? So geht es in Cloud Run In diesem Artikel wird eine effizientere und skalierbare Architektur für die Bereitstellung von Large Language Models (LLMs) in Cloud Run vorgestellt, bei der Modelldateien vom Anwendungscontainer entkoppelt und stattdessen Cloud Storage FUSE verwendet wird. |
2025-08-11 |
|
KI-Modelle
Community
|
KI‑gestützten Podcast-Generator mit Gemini und Cloud Run erstellen In diesem Artikel wird beschrieben, wie Sie einen serverlosen KI-basierten Podcast-Generator erstellen, der Gemini für die Zusammenfassung von Inhalten und Cloud Run verwendet. In diesem Beispiel wird die automatisierte Pipeline zum Generieren und Bereitstellen täglicher Audio-Briefings aus RSS-Feeds orchestriert. |
2025-08-11 |
|
Community
MCP
|
MCP-Server mit Google Cloud Run betreiben In diesem Artikel wird der Zweck des Model Context Protocol (MCP) erläutert. Außerdem finden Sie hier eine Anleitung zum Erstellen und Bereitstellen eines MCP-Servers in Cloud Run, um Ressourcen als Tools für KI-Anwendungen bereitzustellen. |
2025-07-09 |
|
Community
ML-Modelle
Monitoring
|
ML-Modelle mit Cloud Run bereitstellen und überwachen – schlank, skalierbar und kosteneffizient In diesem Artikel wird beschrieben, wie Sie ein Machine-Learning-Modell in Cloud Run bereitstellen, überwachen und automatisch skalieren. Dabei wird ein schlanker Überwachungsstack mit Google Cloud-Diensten verwendet, um die Leistung zu verfolgen und die Kosten zu kontrollieren. |
2025-05-29 |
|
KI-Modelle
AI Studio
Community
LLMs
|
Gemma direkt aus AI Studio in Cloud Run bereitstellen In diesem Artikel finden Sie eine detaillierte Anleitung dazu, wie Sie ein Gemma-Modell aus AI Studio übernehmen, den Code für die Produktion anpassen und es als containerisierte Webanwendung in Cloud Run bereitstellen. |
2025-05-29 |
|
ADK
Agents
Community
MCP
|
Die Triade der Agent-Architektur: ADK, MCP und Cloud Run In diesem Artikel wird gezeigt, wie Sie eine KI-Agentenarchitektur erstellen, indem Sie einen ADK-Workflow (Agent Development Kit) einrichten, der mit einem MCP-Server (Model Context Protocol) kommuniziert, der in Cloud Run gehostet wird, um Flugbuchungen zu verwalten. |
2025-05-27 |
|
A2A
Agents
Community
Frameworks
Anwendungsfälle
|
Agent2Agent-Protokoll (A2A) mit dem Anwendungsfall „Einkaufs-Concierge“ in Cloud Run In diesem Artikel wird das Agent2Agent-Protokoll (A2A) erläutert und seine Verwendung mit einer Anwendung für den Kauf-Concierge demonstriert. Die Cloud Run-App enthält mehrere KI-Agents, die mit verschiedenen Frameworks erstellt wurden und zusammenarbeiten, um die Bestellung eines Nutzers auszuführen. |
2025-05-15 |
|
KI-Modelle
Automatisierung
CI/CD
Community
GitHub
|
Bereitstellung von ML-Modellen mit GitHub Actions und Cloud Run automatisieren In diesem Artikel finden Sie eine umfassende Anleitung zum Erstellen einer CI/CD-Pipeline mit GitHub Actions, um das Erstellen und Bereitstellen von Modellen für maschinelles Lernen als containerisierte Dienste in Cloud Run zu automatisieren. |
2025-05-08 |
|
Community
LLMs
Sicherheit
|
Sovereign AI-Lösungen mit Google Cloud erstellen – Cloud Run In diesem Artikel finden Sie eine detaillierte Anleitung zum Erstellen und Bereitstellen einer souveränen KI-Lösung in Google Cloud mit Sovereign Controls by Partners. In den Beispielen wird ein Gemma-Modell in Cloud Run ausgeführt, um den Datenstandort und die Einhaltung europäischer Vorschriften zu gewährleisten. |
2025-04-03 |
|
Community
LLMs
|
Auf dem Weg zur Arbeit von Null zu Deepseek auf Cloud Run In diesem Artikel wird gezeigt, wie Sie das Deepseek R1-Modell mit Ollama schnell in Cloud Run mit GPUs bereitstellen können. In diesem Artikel werden erweiterte Themen wie das Einbetten des Modells in den Container, A/B-Tests mit Traffic-Aufteilung und das Hinzufügen einer Web-UI mit einem Sidecar-Container behandelt. |
2025-02-11 |
|
Community
LLMs
Ollama
|
Ausführen (beliebiger) offener LLMs mit Ollama in Google Cloud Run [Schritt-für-Schritt-Anleitung] In diesem Artikel wird beschrieben, wie Sie ein beliebiges offenes LLM wie Gemma 2 mit Ollama in Google Cloud Run hosten. Der Artikel enthält auch eine Anleitung zum Erstellen eines Cloud Storage-Bucket für die Modellpersistenz und zum Testen der Bereitstellung. |
2025-01-20 |
|
Community
ML-Modelle
|
Bereitstellung von serverlosen Machine-Learning-Modellen mit GPUs mit Google Cloud: Cloud Run In diesem Artikel wird Schritt für Schritt beschrieben, wie Sie ein Modell für maschinelles Lernen (ML) mit GPU-Unterstützung in Cloud Run bereitstellen. Der Artikel behandelt alles von der Projekteinrichtung und Containerisierung bis hin zur automatisierten Bereitstellung mit Cloud Build und Tests mit curl und JavaScript. |
2025-01-17 |