I prompt sono una parte fondamentale dell'utilizzo di qualsiasi modello Gemini e le nuove funzionalità dei modelli Gemini 3 possono essere utilizzate per risolvere problemi complessi ed eseguire altre attività, come interpretare grandi quantità di testo, risolvere problemi matematici complessi o persino creare immagini e video.
Questa guida fornisce una serie di strategie di prompt per aiutarti a ottenere il massimo da Gemini 3 su Vertex AI per una serie di casi d'uso.
Ottimizzazione della temperatura
Per Gemini 3, consigliamo vivamente di mantenere il parametro
temperatura sul valore predefinito di 1.0.
Le funzionalità di ragionamento di Gemini 3 sono ottimizzate per l'impostazione della temperatura predefinita e non traggono necessariamente vantaggio dalla regolazione della temperatura.
La modifica della temperatura (impostandola su un valore inferiore a 1.0) può comportare un comportamento imprevisto, loop o prestazioni ridotte, in particolare con attività matematiche o di ragionamento complesse.
Strategie di prompting
Le sezioni seguenti descrivono una serie di strategie di prompt che puoi utilizzare con i modelli Gemini 3.
Riduzione della latenza di risposta
Per risposte a latenza inferiore, prova a impostare il livello di pensiero su LOW
e a utilizzare istruzioni di sistema come think silently.
Distinguere tra deduzione e informazioni esterne
In alcuni casi, fornire istruzioni di sistema aperte come do not infer o
do not guess può indurre il modello a dare eccessiva importanza a questa istruzione e
a non eseguire la logica o l'aritmetica di base o a sintetizzare le informazioni trovate
in diverse parti di un documento.
Anziché un grande vincolo negativo generico, indica esplicitamente al modello di utilizzare le informazioni o il contesto aggiuntivi forniti per le deduzioni ed evitare di utilizzare conoscenze esterne.
Esempi
What was the profit? Do not infer.
Questa istruzione non è efficace perché l'istruzione do not infer è troppo
generica.
You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.
In questo caso, l'istruzione chiarisce che il modello deve utilizzare il contesto fornito per i calcoli e il ragionamento.
Utilizzare la verifica in due passaggi
Quando il modello incontra un argomento per il quale dispone di informazioni sufficienti (ad esempio un luogo sconosciuto) o gli viene chiesto di eseguire un'azione per la quale non dispone della funzionalità (ad esempio l'accesso a un URL live specifico), potrebbe generare informazioni apparentemente plausibili ma errate nel tentativo di soddisfare la richiesta.
Per evitare questo problema, dividi il prompt in due passaggi: prima verifica che le informazioni o la funzionalità prevista esistano, poi genera la risposta in base a queste informazioni o funzionalità.
Esempio
Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.
Query: Summarize the headlines from The New York Times today.
Organizzare informazioni e vincoli importanti
Quando gestisce richieste sufficientemente complesse, il modello potrebbe eliminare vincoli negativi (istruzioni specifiche su cosa non fare) o vincoli di formattazione o quantitativi (istruzioni come il numero di parole) se vengono visualizzati troppo presto nel prompt.
Per risolvere questo problema, inserisci la richiesta principale e le limitazioni più importanti nell'ultima riga delle istruzioni. In particolare, i vincoli negativi devono essere inseriti alla fine dell'istruzione. Un prompt ben strutturato potrebbe avere il seguente aspetto:
- [Contesto e fonti]
- [Istruzioni per l'attività principale]
- [Vincoli negativi, di formattazione e quantitativi]
Utilizzo delle buyer persona
Il modello è progettato per trattare seriamente la persona a cui è assegnato e a volte ignora le istruzioni per mantenere l'aderenza alla persona descritta. Quando utilizzi una persona con i prompt, rivedi la persona assegnata al modello ed evita situazioni ambigue.
Esempio
You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.
Mantenere il grounding
Il modello potrebbe utilizzare le proprie conoscenze per rispondere al prompt, il che potrebbe essere in conflitto
con il contesto fornito. Sebbene il modello sia progettato per essere utile, se fornisci uno scenario ipotetico che contraddice i fatti del mondo reale (richiedendo un contesto come Crabs are fictional and have never existed.), il modello potrebbe tornare ai dati di addestramento anziché al prompt per allineare la tua richiesta alle informazioni esistenti.
Se devi lavorare in un contesto non basato su informazioni del mondo reale, indica esplicitamente che il contesto fornito è l'unica fonte attendibile per la sessione corrente.
Esempio
You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.
Sintetizzare più fonti di informazioni
Quando le informazioni vengono presentate in più punti di una fonte di contesto, il modello a volte può interrompere l'elaborazione di informazioni aggiuntive dopo la prima corrispondenza pertinente.
Quando lavori con set di dati di grandi dimensioni, come libri interi, codebase o video lunghi,
inserisci le istruzioni o le domande specifiche alla fine del prompt, dopo
il contesto dei dati. Puoi anche ancorare il ragionamento del modello ai dati forniti iniziando la domanda con una frase come Based on the entire document above....
Istruzione di esempio
Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.
Livello di dettaglio dell'output dello sterzo
Per impostazione predefinita, i modelli Gemini 3 sono meno prolissi e progettati per dare la priorità alla fornitura di risposte dirette ed efficienti.
Se il tuo caso d'uso richiede una persona più conversativa, devi indirizzare esplicitamente il modello a essere più loquace nel prompt.
Istruzione di esempio
Explain this as a friendly, talkative assistant.
Passaggi successivi
- Scopri di più su Gemini 3 Pro.
- Prova il tutorial del notebook Introduzione a Gemini 3 Pro.
- Scopri di più sulla chiamata di funzione.
- Scopri di più su Pensiero.