Generative KI
Dokumentation und Ressourcen zum Entwickeln und Implementieren von Anwendungen mit generativer KI mit Google Cloud Tools und -Produkten.
Proof of Concept mit einem Guthaben in Höhe von 300 $ starten
- Zugriff auf Gemini 2.0 Flash Thinking erhalten
- Kostenlose monatliche Nutzung beliebter Produkte wie AI APIs und BigQuery
- Keine automatischen Abbuchungen, keine Verpflichtung
Mehr als 20 Produkte immer kostenlos nutzen
Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.
Informationen zum Erstellen von Anwendungen mit generativer KI
Generative KI in Vertex AI
Gemini-Schnellstart
KI‑/ML-Orchestrierung in der GKE
Wann sollte generative KI verwendet werden?
Generative KI-Anwendung entwickeln
Codebeispiele und Beispielanwendungen
Glossar zu generativer KI
Tools für generative KI
Entwicklungsablauf für generative KI
Explorative Datenanalyse und Hosting des Modells
Google Cloud bietet eine Reihe hochmoderner Foundation Models über Vertex AI, einschließlich Gemini. Sie können ein Drittanbietermodell auch in Vertex AI Model Garden oder Self-Hosting in GKE, Cloud Run oder Compute Engine bereitstellen.
Google-Modelle in Vertex AI (Gemini, Imagen)
Andere Modelle im Vertex AI Model Garden
Textgenerierungsmodelle über Hugging Face
GPUs in Compute Engine
Prompt-Design und -Engineering
Beim Prompt-Design werden Prompt- und Antwortpaare erstellt, um Sprachmodellen zusätzlichen Kontext und Anweisungen zu geben. Nachdem Sie Prompts erstellt haben, geben Sie diese als Prompt-Dataset zum Vortraining an das Modell. Wenn ein Modell Vorhersagen liefert, antwortet es mit Ihren integrierten Anweisungen.
Vertex AI Studio
Übersicht über Prompt-Strategien
Prompt-Galerie
Fundierung und RAG
Bei der Fundierung werden KI-Modelle mit Datenquellen verbunden, um die Genauigkeit der Antworten zu verbessern und Halluzinationen zu reduzieren. Bei der RAG, einer gängigen Methode zur Fundierung, wird nach relevanten Informationen gesucht und diese dem Prompt des Modells hinzugefügt. So wird sichergestellt, dass die Ausgabe auf Fakten und aktuellen Informationen basiert.
Vertex AI-Fundierung
Fundierung mit der Google Suche
Vektoreinbettungen in AlloyDB
Cloud SQL und pgvector
BigQuery-Daten in Ihre LangChain-Anwendung einbinden
Vektoreinbettungen in Firestore
Vektoreinbettungen in Memorystore (Redis)
Kundenservicemitarbeiter und Funktionsaufrufe
Mithilfe von Agents können Sie ganz einfach eine dialogorientierte Benutzeroberfläche entwerfen und in Ihre mobile App einbinden. Funktionsaufrufe erweitern die Funktionen eines Modells.
Vertex AI Search
Vertex AI-Funktionsaufruf
Modellanpassung und -training
Spezialisierte Aufgaben, wie das Trainieren eines Sprachmodells mit einer bestimmten Terminologie, erfordern möglicherweise mehr Training, als allein mit dem Prompt-Design oder einer Fundierung möglich ist. In diesem Fall können Sie die Modellabstimmung verwenden, um die Leistung zu verbessern, oder ein eigenes Modell trainieren.