Das ist neu in der Dokumentation
Die aktuelle Google Cloud Dokumentation.
Proof of Concept mit einem Guthaben in Höhe von 300 $ starten
- Nutzen Sie unsere neuesten generativen KI-Modelle und Tools für die Entwicklung.
- Sie können mehr als 20 beliebte Produkte wie Compute Engine und KIAI APIs kostenlos nutzen.
- Keine automatischen Abbuchungen, keine Verpflichtung.
Mehr als 20 Produkte immer kostenlos nutzen.
Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.
Übersicht
KI-Apps mit Cloud Run starten
Informationen zum Ausführen von Machine-Learning-Arbeitslasten mit Cloud Run finden Sie im Dokumentationsabschnitt „KI-Lösungen ausführen“.
Anleitung
Mit GKE- und K8s-APIs über den GKE-Remote-MCP-Server interagieren
Hier erfahren Sie, wie Sie programmatisch mit GKE- und Kubernetes-APIs interagieren. Dazu verwenden Sie den GKE Remote MCP-Server, der eine strukturierte Schnittstelle für KI-Agents und Automatisierung bietet.
Übersicht
Anwendungen mit Application Design Center entwerfen und verwalten
In Kurzanleitungen und Schritt-für-Schritt-Anleitungen erfahren Sie, wie Sie Ihre Anwendungen in Google Cloud mit dem Application Design Center entwerfen und verwalten.
Tutorial
Laden von KI-Modellen in GKE mit Run:ai Model Streamer beschleunigen
In dieser Anleitung erfahren Sie, wie Sie große KI-Modelle direkt in den GPU-Arbeitsspeicher in GKE streamen und so langsame Festplatten-Downloads umgehen. Dazu wird die Run:ai Model Streamer-Integration mit vLLM verwendet.
Übersicht
GKE-Autoscaling für KI-Arbeitslasten verstehen
In diesem Kurs werden komplexe GKE-Autoscaling-Konzepte anhand eines Praxisbeispiels für Nutzer von Machine Learning erläutert.
Anleitung
Best Practices für KI-Inferenz in GKE
In diesem umfassenden Leitfaden finden Sie Best Practices für die Bereitstellung von Arbeitslasten für maschinelles Lernen in GKE, von der Einrichtung bis hin zu erweiterten Skalierungsarchitekturen.
Übersicht
Hierarchische Sicherheitsrichtlinien in Cloud Armor verwalten
Hier erfahren Sie, wie Sie Sicherheitsrichtlinien mit den hierarchischen Sicherheitsrichtlinien von Cloud Armor zentral in Ihrer Organisation oder in Ordnern verwalten und erzwingen können.
Anleitung
Out-of-band-Integration für die Netzwerksicherheit in der Console konfigurieren
Hier erfahren Sie, wie Sie Out-of-Band-Dienste für die Netzwerksicherheitsintegration für die Spiegelung und Überprüfung von Traffic direkt in der Google Cloud Console konfigurieren.
Anleitung
Proaktive Vorhersage des Knotenzustands in GKE aktivieren
Mit dieser Anleitung können Sie Unterbrechungen bei sensiblen Arbeitslasten wie KI-Training minimieren, indem Sie die Vorhersage des Knotenzustands aktivieren. So kann der GKE-Scheduler Knoten vermeiden, bei denen es wahrscheinlich zu einer Leistungsminderung kommt.
Anleitung
BigQuery-Entitätsauflösung mit TransUnion konfigurieren
Hier erfahren Sie, wie Sie die Entitätsauflösung in BigQuery in Zusammenarbeit mit TransUnion konfigurieren und verwenden.
Anleitung
Benutzerdefinierte Einschränkungen für die BigQuery-Freigabe anwenden
Hier erfahren Sie, wie Sie mit benutzerdefinierten Einschränkungen in Organisationsrichtlinien eine detailliertere Kontrolle über die Freigabe von BigQuery-Ressourcen erhalten.
Anleitung
Benutzerdefinierte Einschränkungen für Organisationsrichtlinien auf Dataform anwenden
Hier erfahren Sie, wie Sie benutzerdefinierte Einschränkungen mit Organisationsrichtlinien verwenden, um bestimmte Felder in Dataform-Ressourcen detaillierter zu steuern.
Übersicht
Verbesserte Navigation in der Dokumentation zum Migration Center
Die Dokumentation zum Migrationscenter bietet eine neu gestaltete, nutzerorientierte Navigation mit intuitiven Pfaden für verschiedene Anwendungsfälle, einschließlich Cloud-zu-Cloud-Migrationen.
Anleitung
Swap-Speicher für Knoten in GKE aktivieren
Hier erfahren Sie, wie Sie die Anwendungsresilienz und Kosteneffizienz in GKE verbessern können, indem Sie den Knotenspeicher-Swap aktivieren. Dadurch wird ein Puffer gegen plötzliche Speicherspitzen geschaffen und Fehler aufgrund von unzureichendem Arbeitsspeicher werden reduziert.
Anleitung
Pipelines mit dem BigQuery Data Engineering Agent erstellen
Hier erfahren Sie, wie Sie das Laden und Onboarding von Daten in BigQuery mit dem Data-Engineering-Agenten vereinfachen können. Mit diesem können Sie Datenpipelines in natürlicher Sprache beschreiben.
Übersicht
Automatische Bereitstellung von GKE-Knoten verstehen
Die aktualisierte Dokumentation zur automatischen Knotenbereitstellung in GKE enthält jetzt Compute-Klassen und ist übersichtlicher, da sie auf die zu erledigende Aufgabe ausgerichtet ist.
Übersicht
Informationen zum GKE AI-Konformitätsprogramm
Erfahren Sie mehr über das Kubernetes AI-Konformitätsprogramm und richten Sie einen konformen GKE-Cluster für optimierte KI-Arbeitslasten ein, um Skalierbarkeit, Leistung und Interoperabilität zu gewährleisten.
Anleitung
dbt-bigquery-Adapter mit BigQuery DataFrames verwenden
Hier erfahren Sie, wie Sie mit dem dbt-bigquery-Adapter Python-Code ausführen, der in BigQuery DataFrames definiert ist.
Übersicht
BigLake-Dokumentation veröffentlicht
Neue eigenständige Dokumentationswebsite für BigLake Hier erfahren Sie, wie BigLake Google Cloud und Open Source vereint, um ein offenes, verwaltetes und leistungsstarkes Lakehouse mit integrierter Governance zu erstellen.
Übersicht
Gemma-Modelle mit ABAP SDK 1.12 einbinden
Version 1.12 des ABAP SDK for Google Cloud bietet Unterstützung für Gemma-Modelle und gibt Entwicklern mehr Kontrolle über das KI-Verhalten.
Anleitung
Daten mit Looker Self-Service-Explores analysieren
Hier erfahren Sie, wie Sie Datendateien (CSV, XLS, XLSX) hochladen und mit der neuen Self-Service-Funktion „Explores“ ohne LookML sofort Explores erstellen können. Diese Funktion ist jetzt in der öffentlichen Vorschau verfügbar.
Übersicht
Conversational Analytics für Looker und Looker Studio
Die Dokumentation zur konversationellen Analyse wurde in separate, spezielle Dokumentationssets für Looker und Looker Studio aufgeteilt.
Anleitung
Niedrigeren Mindest-Leerlauf-Timeout für interne Passthrough-Network Load Balancer konfigurieren
Für interne Passthrough-Network Load Balancer können Sie jetzt ein niedrigeres Mindest-Leerlauftimeout von bis zu 60 Sekunden für alle Kombinationen von Einstellungen für Sitzungsaffinität und Verbindungs-Tracking-Modus konfigurieren.
Anleitung
Abfragevorlagen für Data-Clean-Rooms für die BigQuery-Freigabe
Für zusätzliche Sicherheits- und Kontrollfunktionen können Sie jetzt Abfragevorlagen verwenden, um die Abfragen, die in Data-Clean-Rooms ausgeführt werden können, vordefinieren und einschränken.
Anleitung
Tabellen- und Ansichtsaufgaben zu BigQuery-Pipelines hinzufügen
Sie können jetzt Tabellen und Ansichten als Aufgaben direkt in Ihre BigQuery-Pipelines einfügen, um effizientere, datengesteuerte Workflows zu erstellen. Diese Feature befindet sich im Vorschaumodus.
Übersicht
Verbesserte Config Sync-Dokumentation für neue Nutzer
Die Config Sync-Dokumentation wurde überarbeitet, um neuen Nutzern zu helfen. Dazu gehören eine neue Anleitung zur Installation von Config Sync mit Standardeinstellungen und aktualisierte Seiten für benutzerdefinierte Installationen und die Authentifizierung.
Tutorial
KI-Agents mit GKE und selbst gehosteten LLMs mit vLLM bereitstellen
Stellen Sie einen Python-basierten Agent in einem produktionsbereiten GKE Autopilot-Cluster mit GPU-Beschleunigung bereit. Verwenden Sie dazu das Google ADK und ein selbst gehostetes Llama 3.1-Modell, das von vLLM bereitgestellt wird.
Übersicht
Erste Schritte mit Flex-Start-VMs
Flex-Start-VMs werden bis zu sieben Tage lang ausgeführt und helfen Ihnen, stark nachgefragte Ressourcen wie GPUs zu einem reduzierten Preis für Arbeitslasten mit kurzer Ausführungsdauer zu erwerben.
Übersicht
Funktionen der erweiterten Version von Privileged Access Manager kennenlernen
Mit Privileged Access Manager (PAM) können Sie Ihre Ressourcen schützen. Die erweiterten Funktionen sind in der öffentlichen Vorschau verfügbar. Implementieren Sie Genehmigungen auf mehreren Ebenen, passen Sie die gewährten Bereiche an, nutzen Sie Dienstkonto-Genehmigungen und vieles mehr für eine detaillierte temporäre Zugriffssteuerung.
Anleitung
Leitfaden zu Best Practices für Cloud Certificate Manager
Dieser umfassende Leitfaden hilft Ihnen, Zertifikate mit Google Cloud zu entwerfen, bereitzustellen und zu verwalten.
Übersicht
URL-Filterung in Cloud NGFW in der öffentlichen Vorschau
Sie können den Zugriff auf Websites und Webseiten steuern, indem Sie URLs blockieren oder zulassen. Dazu werden Informationen zur Domain und zur Server Name Indication (SNI) in ausgehenden HTTP(S)-Nachrichten verwendet.
Tutorial
Out-of-Band-Integration für die Netzwerksicherheits-Integration einrichten
Erstellen und konfigurieren Sie Producer- und Consumer-Ressourcen, um die Out-of-Band-Integration für die Netzwerksicherheitsintegration einzurichten, damit Daten geprüft und überwacht werden können.
Anleitung
Aktuelle Entscheidungsbäume für die Looker-Fehlerbehebung
Vier neue Entscheidungsbäume bieten klare Anleitungen für häufige Fragen zum Looker-Support, sodass Kunden Lösungen selbst finden können.
Anleitung
Best Practices und Optionen für AlloyDB-Verbindungen
Wählen Sie die beste Methode für die Verbindung zu AlloyDB basierend auf Ihrer Arbeitslastumgebung, den Anforderungen an die sichere Verbindung und der Netzwerktopologie aus.
Tutorial
Aktuelle Anleitungen für KI-/ML-Arbeitslasten für AI Hypercomputer
Neue Tutorials für KI/ML-Arbeitslasten auf AI Hypercomputer, darunter:
vLLM auf GKE zum Ausführen von Inferenz mit Llama 4 oder Qwen3, Feinabstimmung von Gemma 3 in einem A4-GKE-Cluster, Verwendung von Ray zum Feinabstimmen von Gemma 3 für Vision-Aufgaben auf GKE und Training von Qwen2 in einem A4-Slurm-Cluster.
Übersicht
Schnelles Google Cloud-Onboarding mit eigenständigen Organisationen
Im Rahmen des Fast Onboarding-Programms werden jetzt bei der Registrierung automatisch eigenständige Organisationen für neue Google Cloud-Kunden erstellt, was den Onboarding-Prozess vereinfacht.
Übersicht
Gemini in Ihrem Netzwerk mit der GDC-verbundenen API ausführen
Gemini-Modelle auf Ihrer eigenen Hardware bereitstellen, die mit Ihrem lokalen Netzwerk verbunden ist, mit der Gemini on Google Distributed Cloud Connected API. Dieses Feature befindet sich in der öffentlichen Vorschau.
Übersicht
Google Distributed Cloud Connected 1.11.0-Dokumentation
Hier finden Sie die aktualisierte Produktdokumentation für Version 1.11.0 von Google Distributed Cloud Connected.
Anleitung
Raumbezogene Visualisierungen in BigQuery erstellen
Sie können die Ergebnisse Ihrer raumbezogenen Abfrage jetzt in BigQuery Studio auf einer interaktiven Karte visualisieren.
Übersicht
Cloud Armor mit Adressgruppen auf Organisationsebene verwenden
Definieren Sie eine zentrale Liste von IP-Adressen, die in Regeln auf hoher Ebene verwendet werden können, um eine einheitliche Steuerung für Ihre gesamte Organisation zu ermöglichen und den Aufwand für Netzwerk- und Projektinhaber zu reduzieren.
Übersicht
Neue Startseite für die gesamte technische Dokumentation von Google Cloud
Durch die Verlagerung aller technischen Inhalte auf eine spezielle Plattform haben wir eine einheitliche Grundlage geschaffen, die es einfacher macht, die nächste Generation von KI-basierten Anwendungen zu entwickeln.
Übersicht
Cluster-Networking mit NCCL/gIB in AI Hypercomputer optimieren
NCCL/gIB ist die erweiterte Version der NVIDIA Collective Communications Library (NCCL) von Google für GPU-zu-GPU-Kommunikationsprimitive.
Anleitung
Leitfaden zur Fehlerbehebung für die Diagnose und Behebung von Latenzproblemen in Bigtable
In diesem Leitfaden werden client- und serverseitige Faktoren behandelt. Außerdem ist ein Flussdiagramm enthalten, mit dem Sie den Prozess der Fehlerbehebung visualisieren können.
Anleitung
Mit Monitoring-Dashboards schnell Informationen zum Systemstatus von Cloud CDN erhalten
Sie erhalten detailliertere Informationen zur Cache-Leistung und einen klaren Überblick über die wichtigsten Cloud CDN-Messwerte – ganz ohne benutzerdefinierte Konfigurationen. Dashboards sind standardmäßig aktiviert und bieten einen schnellen Überblick über den Systemzustand.
Anleitung
Automatische Auswahl des Verarbeitungsstandorts in BigQuery-Pipelinekonfigurationen
Sie können jetzt die automatische Auswahl eines Verarbeitungsstandorts in Ihren BigQuery-Pipelinekonfigurationen aktivieren.
Übersicht
Cloud Run mit modernen Python-Frameworks verwenden
Cloud Run unterstützt jetzt beliebte Python-Web-Frameworks wie FastAPI, Gradio und Streamlit. So lassen sich moderne Arbeitslasten noch einfacher bereitstellen.
Übersicht
Google Distributed Cloud Connected 1.10.0-Dokumentation
Sie haben Zugriff auf die aktualisierte Produktdokumentation für die Version 1.10.0 von Google Distributed Cloud Connected.
Anleitung
Praktischer Leitfaden für das GKE Inference Quickstart-Tool
Mit dem GKE Inference Quickstart-Tool können Sie KI-Lösungen in der Produktion bereitstellen. In diesem Leitfaden geht es um die Analyse von Leistung und Kosten. Er enthält Details zur Kostenberechnung, zu gcloud-Befehlszeilenbefehlen und zur Leistungsoptimierung.
Übersicht
AlloyDB Omni-Dokumentation neu gestaltet, um sich auf Bereitstellungsumgebungen zu konzentrieren
Die Produktdokumentation für AlloyDB Omni bietet jetzt separate Dokumentationen für jede Bereitstellungsumgebung, was die Ausführung von Workflows erleichtert.
Übersicht
GKE führt einheitliche KI-/ML-Dokumentation ein, in die Ray on GKE integriert ist
GKE bietet jetzt eine einheitliche Dokumentationssuite für KI/ML-Arbeitslasten, in der Inhalte nach Nutzer-Workflows wie Inferenz und Training organisiert sind. Außerdem ist die Dokumentation für Ray on GKE vollständig integriert.
Übersicht
Informationen zu A4X-VMs mit NVIDIA GB200-Superchip für Exascale-KI
A4X-VMs in Google Cloud verwenden den NVIDIA GB200-Superchip und Multi-Node-NVLink, um Exascale-Computing mit bis zu 72 GPUs für umfangreiche KI- und HPC-Arbeitslasten zu ermöglichen.
Anleitung
Mehrere Regionen in BigQuery-Freigabe auflisten
Konfigurieren Sie Einträge für mehrere Regionen für freigegebene Datasets und Replikate verknüpfter Datasets in BigQuery Sharing. Diese Feature befindet sich im Vorschaumodus.
Übersicht
KI in AlloyDB nutzen
Sie können KI-Anwendungen für Unternehmen schneller und mit weniger Komplexität entwickeln, indem Sie Vektorsuche, KI-Abfrage-Engine und natürliche Sprache in Ihre Betriebsdaten einbinden.
Tutorial
Offene LLMs in Google Kubernetes Engine bereitstellen
In dieser neuen Terraform-Anleitung erfahren Sie, wie Sie beliebte offene LLMs in GKE für die Inferenz bereitstellen. Dabei wird eine vorkonfigurierte, produktionsreife Referenzarchitektur verwendet.
Tutorial
Generative KI-Anwendungen erstellen, mit denen Datenbanken in natürlicher Sprache abgefragt werden
Beschleunigen Sie die App-Entwicklung und stellen Sie intuitive Chatfunktionen bereit, mit denen Kunden Fragen in natürlicher Sprache zu ihren relationalen Daten stellen können.
Anleitung
Ihr Tor zum anwendungszentrierten Ökosystem von Google Cloud
Sie sind neu in der App-zentrierten Welt? Hier erfahren Sie, wie Sie mit App Hub, Application Design Center und Cloud Hub Ihre Anwendungen in Google Cloud verwalten, entwerfen und betreiben können.
Tabelle
Mithilfe dieser Vergleichsmatrix die richtige Looker-Version auswählen
Die richtige Looker-Version auswählen In dieser umfassenden Matrix werden die Funktionen von Looker (Google Cloud Core), Looker (Original) und von Kunden gehosteten Bereitstellungen verglichen.
Aktuelle Google Cloud-Blogs
Weitere Updates und Ressourcen
Versionshinweise zu Cloud-Produkten
Die letzten Änderungen an Google Cloud -Produkten.
Neuerungen im Architecture Center
Die neuesten Best Practices und Referenzarchitekturen für Google Cloud.
Community-Diskussion
Treten Sie der Community bei und lernen Sie von denjenigen, die auf Google Cloudentwickeln, bereitstellen und betreiben.