Guida ai prompt di Gemini 3

I prompt sono una parte fondamentale dell'utilizzo di qualsiasi modello Gemini e le nuove funzionalità dei modelli Gemini 3 possono essere utilizzate per risolvere problemi complessi ed eseguire altre attività, come interpretare grandi quantità di testo, risolvere problemi matematici complessi o persino creare immagini e video.

Questa guida fornisce una serie di strategie di prompt per aiutarti a ottenere il massimo da Gemini 3 su Vertex AI per una serie di casi d'uso.

Ottimizzazione della temperatura

Per Gemini 3, consigliamo vivamente di mantenere il parametro temperatura sul valore predefinito di 1.0.

Le funzionalità di ragionamento di Gemini 3 sono ottimizzate per l'impostazione della temperatura predefinita e non traggono necessariamente vantaggio dalla regolazione della temperatura. La modifica della temperatura (impostandola su un valore inferiore a 1.0) può comportare un comportamento imprevisto, loop o prestazioni ridotte, in particolare con attività matematiche o di ragionamento complesse.

Strategie di prompting

Le sezioni seguenti descrivono una serie di strategie di prompt che puoi utilizzare con i modelli Gemini 3.

Riduzione della latenza di risposta

Per risposte a latenza inferiore, prova a impostare il livello di pensiero su LOW e a utilizzare istruzioni di sistema come think silently.

Distinguere tra deduzione e informazioni esterne

In alcuni casi, fornire istruzioni di sistema aperte come do not infer o do not guess può indurre il modello a dare eccessiva importanza a questa istruzione e a non eseguire la logica o l'aritmetica di base o a sintetizzare le informazioni trovate in diverse parti di un documento.

Anziché un grande vincolo negativo generico, indica esplicitamente al modello di utilizzare le informazioni o il contesto aggiuntivi forniti per le deduzioni ed evitare di utilizzare conoscenze esterne.

Esempi

What was the profit? Do not infer.

Questa istruzione non è efficace perché l'istruzione do not infer è troppo generica.

You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.

In questo caso, l'istruzione chiarisce che il modello deve utilizzare il contesto fornito per i calcoli e il ragionamento.

Utilizzare la verifica in due passaggi

Quando il modello incontra un argomento per il quale dispone di informazioni sufficienti (ad esempio un luogo sconosciuto) o gli viene chiesto di eseguire un'azione per la quale non dispone della funzionalità (ad esempio l'accesso a un URL live specifico), potrebbe generare informazioni apparentemente plausibili ma errate nel tentativo di soddisfare la richiesta.

Per evitare questo problema, dividi il prompt in due passaggi: prima verifica che le informazioni o la funzionalità prevista esistano, poi genera la risposta in base a queste informazioni o funzionalità.

Esempio

Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.

Query: Summarize the headlines from The New York Times today.

Organizzare informazioni e vincoli importanti

Quando gestisce richieste sufficientemente complesse, il modello potrebbe eliminare vincoli negativi (istruzioni specifiche su cosa non fare) o vincoli di formattazione o quantitativi (istruzioni come il numero di parole) se vengono visualizzati troppo presto nel prompt.

Per risolvere questo problema, inserisci la richiesta principale e le limitazioni più importanti nell'ultima riga delle istruzioni. In particolare, i vincoli negativi devono essere inseriti alla fine dell'istruzione. Un prompt ben strutturato potrebbe avere il seguente aspetto:

  • [Contesto e fonti]
  • [Istruzioni per l'attività principale]
  • [Vincoli negativi, di formattazione e quantitativi]

Utilizzo delle buyer persona

Il modello è progettato per trattare seriamente la persona a cui è assegnato e a volte ignora le istruzioni per mantenere l'aderenza alla persona descritta. Quando utilizzi una persona con i prompt, rivedi la persona assegnata al modello ed evita situazioni ambigue.

Esempio

You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.

Mantenere il grounding

Il modello potrebbe utilizzare le proprie conoscenze per rispondere al prompt, il che potrebbe essere in conflitto con il contesto fornito. Sebbene il modello sia progettato per essere utile, se fornisci uno scenario ipotetico che contraddice i fatti del mondo reale (richiedendo un contesto come Crabs are fictional and have never existed.), il modello potrebbe tornare ai dati di addestramento anziché al prompt per allineare la tua richiesta alle informazioni esistenti.

Se devi lavorare in un contesto non basato su informazioni del mondo reale, indica esplicitamente che il contesto fornito è l'unica fonte attendibile per la sessione corrente.

Esempio

You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.

Sintetizzare più fonti di informazioni

Quando le informazioni vengono presentate in più punti di una fonte di contesto, il modello a volte può interrompere l'elaborazione di informazioni aggiuntive dopo la prima corrispondenza pertinente.

Quando lavori con set di dati di grandi dimensioni, come libri interi, codebase o video lunghi, inserisci le istruzioni o le domande specifiche alla fine del prompt, dopo il contesto dei dati. Puoi anche ancorare il ragionamento del modello ai dati forniti iniziando la domanda con una frase come Based on the entire document above....

Istruzione di esempio

Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.

Livello di dettaglio dell'output dello sterzo

Per impostazione predefinita, i modelli Gemini 3 sono meno prolissi e progettati per dare la priorità alla fornitura di risposte dirette ed efficienti.

Se il tuo caso d'uso richiede una persona più conversativa, devi indirizzare esplicitamente il modello a essere più loquace nel prompt.

Istruzione di esempio

Explain this as a friendly, talkative assistant.

Passaggi successivi