Prompts optimieren

In diesem Dokument wird beschrieben, wie Sie den Vertex AI Prompt Optimizer verwenden, um die Leistung von Prompts automatisch zu optimieren, indem Sie die Systemanweisungen für eine Reihe von Prompts verbessern.

Mit dem Vertex AI-Prompt-Optimierer können Sie Ihre Prompts schnell und in großem Umfang verbessern, ohne Systemanweisungen oder einzelne Prompts manuell neu zu schreiben. Das ist besonders nützlich, wenn Sie Systemanweisungen und Prompts, die für ein Modell geschrieben wurden, mit einem anderen Modell verwenden möchten.

Wir bieten zwei Ansätze zur Optimierung von Prompts:

  • Der Zero-Shot-Optimierer ist ein Echtzeit-Optimierer mit niedriger Latenz, der einen einzelnen Prompt oder eine Systemanweisungsvorlage verbessert. Es ist schnell und erfordert keine zusätzliche Einrichtung außer der Angabe Ihres ursprünglichen Prompts oder Ihrer Systemanweisung. Der Zero-Shot-Optimierer ist modellunabhängig und kann Prompts für jedesGoogle -Modell verbessern. Außerdem bietet es einen gemini_nano-Modus, um Prompts speziell für On-Device-Modelle wie Gemini Nano und Gemma 3n E4B zu optimieren.
  • Der datengetriebene Optimierer ist ein iterativer Optimierer auf Batch-Aufgabenebene, der Prompts verbessert, indem er die Reaktion des Modells auf Stichproben von gelabelten Prompts anhand der angegebenen Bewertungs-Messwerte für das ausgewählte Zielmodell bewertet. Diese Funktion ist für die erweiterte Optimierung gedacht. Sie können die Optimierungsparameter konfigurieren und einige Beispiele mit Labels bereitstellen. Außerdem unterstützt der datengesteuerte Optimierer die Optimierung für allgemein verfügbare Gemini-Modelle und benutzerdefinierte Modelle, die lokal oder über den Vertex AI Model Garden bereitgestellt werden.

Diese Methoden sind für Nutzer über die Benutzeroberfläche oder das Vertex AI SDK verfügbar.

Nächste Schritte