Prompts sind ein wichtiger Bestandteil der Arbeit mit Gemini-Modellen. Die neuen Funktionen der Gemini 3-Modelle können durch Prompts aktiviert werden, um komplexe Probleme zu lösen und andere Aufgaben zu erledigen, z. B. große Mengen an Text zu interpretieren, komplexe mathematische Probleme zu lösen oder sogar Bilder und Videos zu erstellen.
In diesem Leitfaden finden Sie verschiedene Prompting-Strategien, mit denen Sie Gemini 3 in Vertex AI für eine Vielzahl von Anwendungsfällen optimal nutzen können.
Temperaturabstimmung
Für Gemini 3 empfehlen wir dringend, den Temperaturparameter auf dem Standardwert 1.0 zu belassen.
Die Schlussfolgerungsfunktionen von Gemini 3 sind für die Standardtemperatureinstellung optimiert und profitieren nicht unbedingt von einer Anpassung der Temperatur.
Wenn Sie die Temperatur ändern (auf einen Wert unter 1.0), kann dies zu unerwartetem Verhalten, Schleifen oder einer schlechteren Leistung führen, insbesondere bei komplexen mathematischen oder logischen Aufgaben.
Prompt-Strategien
In den folgenden Abschnitten werden verschiedene Prompting-Strategien beschrieben, die Sie mit Gemini 3-Modellen verwenden können.
Antwortlatenz verringern
Wenn Sie Antworten mit geringerer Latenz erhalten möchten, können Sie die Denkebene auf LOW festlegen und Systemanweisungen wie think silently verwenden.
Unterscheidung zwischen Ableitung und externen Informationen
In einigen Fällen kann es vorkommen, dass das Modell bei offenen Systemanweisungen wie do not infer oder do not guess diese Anweisung zu stark berücksichtigt und grundlegende Logik oder Arithmetik nicht ausführt oder Informationen aus verschiedenen Teilen eines Dokuments nicht zusammenfasst.
Anstatt einer großen, pauschalen negativen Einschränkung sollten Sie dem Modell explizit mitteilen, dass es die bereitgestellten zusätzlichen Informationen oder den Kontext für Schlussfolgerungen verwenden und externes Wissen vermeiden soll.
Beispiele
What was the profit? Do not infer.
Diese Anweisung ist ineffektiv, weil die Anweisung do not infer zu allgemein ist.
You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.
Hier wird durch die Anweisung deutlich, dass das Modell den bereitgestellten Kontext für Berechnungen und die Argumentation verwenden soll.
Split-Step-Überprüfung verwenden
Wenn das Modell auf ein Thema stößt, für das es nicht genügend Informationen hat (z. B. ein unbekannter Ort), oder wenn es aufgefordert wird, eine Aktion auszuführen, für die es keine Funktion hat (z. B. Zugriff auf eine bestimmte Live-URL), kann es scheinbar plausible, aber falsche Informationen generieren, um die Anfrage zu erfüllen.
Um dies zu vermeiden, teilen Sie den Prompt in zwei Schritte auf: Prüfen Sie zuerst, ob die Informationen oder die beabsichtigte Funktion vorhanden sind, und generieren Sie dann die Antwort auf Grundlage dieser Informationen oder Funktion.
Beispiel
Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.
Query: Summarize the headlines from The New York Times today.
Wichtige Informationen und Einschränkungen organisieren
Bei ausreichend komplexen Anfragen kann es vorkommen, dass das Modell negative Einschränkungen (spezifische Anweisungen, was nicht zu tun ist) oder Formatierungs- oder quantitative Einschränkungen (Anweisungen wie Wortanzahl) ignoriert, wenn sie zu früh im Prompt erscheinen.
Um dieses Problem zu umgehen, sollten Sie Ihre Hauptanfrage und die wichtigsten Einschränkungen in die letzte Zeile Ihrer Anweisung schreiben. Insbesondere negative Einschränkungen sollten am Ende der Anweisung stehen. Ein gut strukturierter Prompt könnte so aussehen:
- [Kontext und Quellenmaterial]
- [Main task instructions]
- [Negative, formatting, and quantitative constraints]
Personas verwenden
Das Modell ist so konzipiert, dass es die ihm zugewiesene Persona ernst nimmt und Anweisungen manchmal ignoriert, um die beschriebene Persona beizubehalten. Wenn Sie eine Persona mit Ihren Prompts verwenden, überprüfen Sie die dem Modell zugewiesene Persona und vermeiden Sie mehrdeutige Situationen.
Beispiel
You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.
Fundierung beibehalten
Das Modell kann sein eigenes Wissen verwenden, um Ihren Prompt zu beantworten. Dies kann im Widerspruch zu dem bereitgestellten Kontext stehen. Das Modell ist zwar darauf ausgelegt, hilfreich zu sein, aber wenn Sie ein hypothetisches Szenario angeben, das realen Fakten widerspricht (z. B. durch einen Prompt mit Kontext wie Crabs are fictional and have never existed.), greift das Modell möglicherweise auf seine Trainingsdaten zurück, anstatt auf Ihren Prompt zu reagieren, um Ihre Anfrage mit seinen vorhandenen Informationen in Einklang zu bringen.
Wenn Sie in einem Kontext arbeiten müssen, der nicht auf realen Informationen basiert, geben Sie explizit an, dass der bereitgestellte Kontext die einzige Quelle für die aktuelle Sitzung ist.
Beispiel
You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.
Zusammenführen mehrerer Informationsquellen
Wenn Informationen an mehreren Stellen in einer Kontextquelle präsentiert werden, kann das Modell die Verarbeitung zusätzlicher Informationen nach dem ersten relevanten Treffer manchmal beenden.
Wenn Sie mit großen Datasets wie ganzen Büchern, Codebasen oder langen Videos arbeiten, platzieren Sie Ihre spezifischen Anweisungen oder Fragen am Ende des Prompts, nach dem Datenkontext. Sie können die Argumentation des Modells auch an den bereitgestellten Daten verankern, indem Sie Ihre Frage mit einer Formulierung wie Based on the entire document above... beginnen.
Beispielanleitung
Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.
Ausführlichkeit der Steuerungsausgabe
Standardmäßig sind Gemini 3-Modelle weniger ausführlich und so konzipiert, dass sie direkte und effiziente Antworten liefern.
Wenn Ihr Anwendungsfall eine gesprächigere Persona erfordert, müssen Sie das Modell im Prompt explizit dazu anweisen, gesprächiger zu sein.
Beispielanleitung
Explain this as a friendly, talkative assistant.
Nächste Schritte
- Weitere Informationen zu Gemini 3 Pro
- Notebook-Anleitung zu Gemini 3 Pro
- Weitere Informationen zu Funktionsaufrufen
- Weitere Informationen zum Denkprozess