Guide de rédaction de requêtes Gemini 3

Les requêtes sont un élément clé pour travailler avec n'importe quel modèle Gemini. Les nouvelles fonctionnalités des modèles Gemini 3 peuvent être sollicitées pour résoudre des problèmes complexes et accomplir d'autres tâches, comme interpréter de grandes quantités de texte, résoudre des problèmes mathématiques complexes ou même créer des images et des vidéos.

Ce guide propose différentes stratégies de requête pour vous aider à exploiter tout le potentiel de Gemini 3 sur Vertex AI pour divers cas d'utilisation.

Réglage de la température

Pour Gemini 3, nous vous recommandons vivement de conserver la valeur par défaut du paramètre de température, à savoir 1.0.

Les capacités de raisonnement de Gemini 3 sont optimisées pour le paramètre de température par défaut et ne bénéficient pas nécessairement d'un réglage de la température. Si vous modifiez la température (en la définissant sur une valeur inférieure à 1.0), vous risquez d'obtenir un comportement inattendu, des boucles ou des performances dégradées, en particulier pour les tâches mathématiques ou de raisonnement complexes.

Stratégies de requête

Les sections suivantes décrivent différentes stratégies de requête que vous pouvez utiliser avec les modèles Gemini 3.

Réduire la latence de réponse

Pour obtenir des réponses avec une latence plus faible, essayez de définir le niveau de réflexion sur LOW et d'utiliser des instructions système telles que think silently.

Distinguer la déduction des informations externes

Dans certains cas, fournir des instructions système ouvertes comme do not infer ou do not guess peut entraîner une surpondération de cette instruction par le modèle, qui ne parvient alors pas à effectuer des opérations logiques ou arithmétiques de base, ni à synthétiser les informations trouvées dans différentes parties d'un document.

Plutôt que d'utiliser une contrainte négative globale, indiquez explicitement au modèle d'utiliser les informations ou le contexte supplémentaires fournis pour les déductions et d'éviter d'utiliser des connaissances externes.

Exemples

What was the profit? Do not infer.

Cette instruction est inefficace, car l'instruction do not infer est trop générale.

You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.

Ici, l'instruction indique clairement que le modèle doit utiliser le contexte fourni pour les calculs et le raisonnement.

Utiliser la validation fractionnée en deux étapes

Lorsque le modèle rencontre un sujet pour lequel il ne dispose pas d'informations suffisantes (par exemple, un lieu peu connu) ou qu'il est invité à effectuer une action dont il n'est pas capable (par exemple, accéder à une URL en direct spécifique), il peut générer des informations apparemment plausibles, mais incorrectes, pour tenter de répondre à la demande.

Pour éviter cela, divisez la requête en deux étapes : vérifiez d'abord que l'information ou la fonctionnalité souhaitée existe, puis générez la réponse en fonction de cette information ou fonctionnalité.

Exemple

Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.

Query: Summarize the headlines from The New York Times today.

Organiser les informations et les contraintes importantes

Lorsqu'il traite des requêtes suffisamment complexes, le modèle peut supprimer les contraintes négatives (instructions spécifiques sur ce qu'il ne faut pas faire) ou les contraintes de mise en forme ou quantitatives (instructions comme le nombre de mots) si elles apparaissent trop tôt dans la requête.

Pour éviter cela, placez votre demande principale et vos restrictions les plus importantes sur la dernière ligne de votre instruction. En particulier, les contraintes négatives doivent être placées à la fin de l'instruction. Voici un exemple de prompt bien structuré :

  • [Contexte et sources]
  • [Instructions de la tâche principale]
  • [Contraintes négatives, de mise en forme et quantitatives]

Utiliser des personas

Le modèle est conçu pour prendre au sérieux le persona qui lui est attribué et ignorera parfois les instructions afin de respecter le persona décrit. Lorsque vous utilisez un persona avec vos requêtes, vérifiez celui qui est attribué au modèle et évitez les situations ambiguës.

Exemple

You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.

Maintenir l'ancrage

Le modèle peut utiliser ses propres connaissances pour répondre à votre requête, ce qui peut être en conflit avec le contexte fourni. Bien que le modèle soit conçu pour être utile, si vous fournissez un scénario hypothétique qui contredit des faits réels (en ajoutant un contexte tel que Crabs are fictional and have never existed.), il peut revenir à ses données d'entraînement plutôt qu'à votre requête pour l'aligner sur ses informations existantes.

Si vous devez travailler dans un contexte qui n'est pas ancré dans des informations réelles, indiquez explicitement que le contexte fourni est la seule source d'informations fiables pour la session en cours.

Exemple

You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.

Synthétiser plusieurs sources d'informations

Lorsque des informations sont présentées à plusieurs endroits dans une source de contexte, le modèle peut parfois cesser de traiter les informations supplémentaires après la première correspondance pertinente.

Lorsque vous travaillez avec de grands ensembles de données, comme des livres entiers, des bases de code ou de longues vidéos, placez vos instructions ou questions spécifiques à la fin de la requête, après le contexte des données. Vous pouvez également ancrer le raisonnement du modèle aux données fournies en commençant votre question par une expression telle que Based on the entire document above....

Exemple d'instruction

Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.

Gérer le niveau de verbosité de la sortie

Par défaut, les modèles Gemini 3 sont moins verbeux et conçus pour fournir des réponses directes et efficaces en priorité.

Si votre cas d'utilisation nécessite un persona plus conversationnel, vous devez explicitement orienter le modèle vers un style plus bavard dans la requête.

Exemple d'instruction

Explain this as a friendly, talkative assistant.

Étapes suivantes