Generative KI

Dokumentation und Ressourcen zum Entwickeln und Implementieren von Anwendungen mit generativer KI mit Google Cloud Tools und -Produkten.

  • Zugriff auf Gemini 2.0 Flash Thinking erhalten
  • Kostenlose monatliche Nutzung beliebter Produkte wie AI APIs und BigQuery
  • Keine automatischen Abbuchungen, keine Verpflichtung

Mehr als 20 Produkte immer kostenlos nutzen

Sie haben Zugriff auf mehr als 20 kostenlose Produkte für gängige Anwendungsfälle, darunter KI-APIs, VMs, Data Warehouses und mehr.

Informationen zum Erstellen von Anwendungen mit generativer KI

Sie können auf die großen generativen KI-Modelle von Google zugreifen, um die Modelle zu testen, zu optimieren und für den Einsatz in Ihren KI-gestützten Anwendungen bereitzustellen.
Hier erfahren Sie, wie Sie über die KI-ML-Plattform Vertex AI von Google Cloud Anfragen an die Gemini API senden.
Nutzen Sie die Leistungsfähigkeit von GKE als anpassbare KI-/ML-Plattform mit leistungsstarker, kostengünstiger Bereitstellung und kostengünstigem Training mit branchenführender Skalierung und flexiblen Infrastrukturoptionen.
Ermitteln Sie, ob generative KI, herkömmliche KI oder eine Kombination aus beiden zu Ihrem geschäftlichen Anwendungsfall passen könnte.
Hier erfahren Sie, wie Sie die Herausforderungen in jeder Phase der Entwicklung einer Anwendung für generative KI bewältigen.
Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.
Hier finden Sie Informationen zu bestimmten Begriffen, die mit generativer KI in Verbindung stehen.

Tools für generative KI

Liste der generativen KI-Tools, darunter Vertex AI Studio, Colab Enterprise/Notebooks und Workbench, die in der Cloud Console aufgeführt sind, sowie SDKs/APIs, die als separates Element aufgeführt sind.

Entwicklungsablauf für generative KI

Diagramm des Entwicklungsablaufs für generative KI mit sechs Phasen: Modellauswahl (einschließlich Model Garden), Prompt Engineering (einschließlich Prompt Gallery, Vertex AI Studio, Prompts vergleichen und Prompt optimieren), Abstimmung (einschließlich Training und Abstimmung), Optimierung (einschließlich Destillation), Bereitstellung (einschließlich Model Registry, Onlinevorhersage und Batchvorhersage) und Monitoring. Die Phasen der Modellauswahl, des Prompt Engineerings, der Abstimmung und der Optimierung sind Teil eines wiederholten Unterzyklus mit der Bezeichnung „Bewertung“.

Explorative Datenanalyse und Hosting des Modells

Google Cloud bietet eine Reihe hochmoderner Foundation Models über Vertex AI, einschließlich Gemini. Sie können ein Drittanbietermodell auch in Vertex AI Model Garden oder Self-Hosting in GKE, Cloud Run oder Compute Engine bereitstellen.

ML-Modellbibliothek, mit der Sie Google-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.
ML-Modellbibliothek, mit der Sie ausgewählte OSS-Modelle und -Assets entdecken, testen, anpassen und bereitstellen können.
Informationen zum Bereitstellen von HuggingFace-Modellen für die Textgenerierung in Vertex AI oder Google Kubernetes Engine (GKE)
Hängen Sie GPUs an VM-Instanzen an, um Arbeitslasten für generative KI in der Compute Engine zu beschleunigen.

Prompt-Design und -Engineering

Beim Prompt-Design werden Prompt- und Antwortpaare erstellt, um Sprachmodellen zusätzlichen Kontext und Anweisungen zu geben. Nachdem Sie Prompts erstellt haben, geben Sie diese als Prompt-Dataset zum Vortraining an das Modell. Wenn ein Modell Vorhersagen liefert, antwortet es mit Ihren integrierten Anweisungen.

Entwerfen, testen und passen Sie Ihre an Gemini 2 und PaLM 2-Large Language Models (LLM) von Google gesendeten Prompts an.
Informationen zum Workflow für die Prompt-Erstellung und zu gängigen Strategien, mit denen Sie die Modellantworten beeinflussen können.
Beispielprompts und ‑antworten für bestimmte Anwendungsfälle ansehen

Fundierung und RAG

Bei der Fundierung werden KI-Modelle mit Datenquellen verbunden, um die Genauigkeit der Antworten zu verbessern und Halluzinationen zu reduzieren. Bei der RAG, einer gängigen Methode zur Fundierung, wird nach relevanten Informationen gesucht und diese dem Prompt des Modells hinzugefügt. So wird sichergestellt, dass die Ausgabe auf Fakten und aktuellen Informationen basiert.

Sie können Vertex AI-Modelle mit der Google Suche oder mit Ihren eigenen Daten fundieren, die in Vertex AI Search gespeichert sind.
Verwenden Sie die Funktion „Mit der Google Suche fundieren“, um das Modell mit dem aktuellen Wissen im Internet zu verknüpfen.
Verwenden Sie AlloyDB, um Vektoreinbettungen zu generieren und zu speichern, und indexieren und fragen Sie die Einbettungen dann mit der pgvector-Erweiterung ab.
Speichern Sie Vektoreinbettungen in Postgres SQL und indexieren und fragen Sie sie dann mit der pgvector-Erweiterung ab.
Verwenden Sie LangChain, um Daten aus BigQuery zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.
Erstellen Sie Vektoreinbettungen aus Ihren Firestore-Daten und indexieren und fragen Sie die Einbettungen dann ab.
Verwenden Sie LangChain, um Daten aus Memorystore zu extrahieren und die Antworten Ihres Modells zu ergänzen und zu fundieren.

Kundenservicemitarbeiter und Funktionsaufrufe

Mithilfe von Agents können Sie ganz einfach eine dialogorientierte Benutzeroberfläche entwerfen und in Ihre mobile App einbinden. Funktionsaufrufe erweitern die Funktionen eines Modells.

Nutzen Sie die Foundation Models, die Suchexpertise und die Technologien für konversationelle KI von Google für generative KI-Anwendungen in Unternehmen.
Fügen Sie Ihrem Modell Funktionsaufrufe hinzu, um Aktionen wie die Buchung einer Reservierung basierend auf extrahierten Kalenderinformationen zu ermöglichen.

Modellanpassung und -training

Spezialisierte Aufgaben, wie das Trainieren eines Sprachmodells mit einer bestimmten Terminologie, erfordern möglicherweise mehr Training, als allein mit dem Prompt-Design oder einer Fundierung möglich ist. In diesem Fall können Sie die Modellabstimmung verwenden, um die Leistung zu verbessern, oder ein eigenes Modell trainieren.

Bewerten Sie die Leistung von Foundation Models und Ihre abgestimmten generativen KI-Modelle auf Vertex AI.
Foundation Models für allgemeine Zwecke können durch eine Abstimmung ihre Leistung bei bestimmten Aufgaben verbessern.
TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen, z. B. das Training eines LLM.

Gleich mit dem Erstellen loslegen

LangChain ist ein Open-Source-Framework für generative KI-Anwendungen, mit dem Sie Kontext in Ihre Prompts integrieren und basierend auf der Antwort des Modells Maßnahmen ergreifen können.
Sehen Sie sich Codebeispiele für gängige Anwendungsfälle an und implementieren Sie Beispiele für generative KI-Anwendungen, die sicher, effizient, stabil, leistungsstark und kostengünstig sind.