Guía para peticiones de Gemini 3

Las peticiones son una parte fundamental para trabajar con cualquier modelo de Gemini. Las nuevas funciones de los modelos de Gemini 3 se pueden usar para resolver problemas complejos y llevar a cabo otras tareas, como interpretar grandes cantidades de texto, resolver problemas matemáticos complejos o incluso crear imágenes y vídeos.

En esta guía se ofrecen varias estrategias de peticiones para ayudarte a sacar el máximo partido a Gemini 3 en Vertex AI en distintos casos prácticos.

Ajuste de temperatura

En el caso de Gemini 3, te recomendamos que mantengas el valor predeterminado del parámetro de temperatura, que es 1.0.

Las funciones de razonamiento de Gemini 3 están optimizadas para el ajuste de temperatura predeterminado y no se benefician necesariamente de la modificación de la temperatura. Si cambias la temperatura (por debajo de 1.0), es posible que se produzcan comportamientos inesperados, bucles o un rendimiento inferior, sobre todo en tareas matemáticas o de razonamiento complejas.

Estrategias de peticiones

En las siguientes secciones se describen varias estrategias de peticiones que puedes usar con los modelos de Gemini 3.

Reducir la latencia de respuesta

Para obtener respuestas con menor latencia, prueba a definir el nivel de reflexión en LOW y a usar instrucciones del sistema como think silently.

Distinguir entre deducción e información externa

En algunos casos, si se proporcionan instrucciones del sistema abiertas, como do not infer o do not guess, es posible que el modelo se centre demasiado en esa instrucción y no pueda realizar operaciones lógicas o aritméticas básicas, o sintetizar información que se encuentra en diferentes partes de un documento.

En lugar de usar una restricción negativa general, indica al modelo explícitamente que use la información o el contexto adicionales proporcionados para hacer deducciones y que no use conocimientos externos.

Ejemplos

What was the profit? Do not infer.

Esta instrucción no es eficaz porque la instrucción do not infer es demasiado general.

You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.

En este caso, la instrucción deja claro que el modelo debe usar el contexto proporcionado para hacer cálculos y razonamientos.

Usar la verificación en dos pasos

Cuando el modelo se encuentra con un tema sobre el que no tiene suficiente información (por ejemplo, un lugar poco conocido) o se le pide que realice una acción para la que no tiene capacidad (por ejemplo, acceder a una URL activa específica), puede generar información aparentemente plausible pero incorrecta para intentar satisfacer la solicitud.

Para evitarlo, divide la petición en dos pasos: primero, verifica que la información o la función que quieres usar existe y, después, genera la respuesta basándote en esa información o función.

Ejemplo

Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.

Query: Summarize the headlines from The New York Times today.

Organizar la información y las restricciones importantes

Cuando se trata de peticiones lo suficientemente complejas, el modelo puede omitir las restricciones negativas (instrucciones específicas sobre lo que no se debe hacer) o las restricciones de formato o cuantitativas (instrucciones como el recuento de palabras) si aparecen demasiado pronto en la petición.

Para evitarlo, coloca tu solicitud principal y las restricciones más importantes en la última línea de tus instrucciones. En concreto, las restricciones negativas deben colocarse al final de la instrucción. Una petición bien estructurada podría ser como esta:

  • [Contexto y material de origen]
  • [Instrucciones de la tarea principal]
  • [Restricciones negativas, de formato y cuantitativas]

Usar buyer personas

El modelo se ha diseñado para tratar con seriedad el rol que se le asigna y, en ocasiones, ignorará las instrucciones para mantener la coherencia con el rol descrito. Cuando uses un perfil en tus peticiones, revisa el perfil asignado al modelo y evita situaciones ambiguas.

Ejemplo

You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.

Mantener la información de base

El modelo puede usar sus propios conocimientos para responder a tu petición, lo que podría entrar en conflicto con el contexto proporcionado. Aunque el modelo está diseñado para ser útil, si proporcionas una situación hipotética que contradice hechos del mundo real (por ejemplo, si le das un contexto como Crabs are fictional and have never existed.), es posible que el modelo vuelva a sus datos de entrenamiento en lugar de seguir tu petición para alinear tu solicitud con la información que ya tiene.

Si necesitas trabajar en un contexto que no se base en información del mundo real, indica explícitamente que el contexto proporcionado es la única fuente de información veraz para la sesión actual.

Ejemplo

You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.

Sintetizar varias fuentes de información

Cuando la información se presenta en varios lugares de una fuente de contexto, el modelo a veces puede dejar de procesar información adicional después de la primera coincidencia pertinente.

Cuando trabajes con conjuntos de datos grandes, como libros enteros, bases de código o vídeos largos, coloca tus instrucciones o preguntas específicas al final de la petición, después del contexto de los datos. También puedes basar el razonamiento del modelo en los datos proporcionados empezando tu pregunta con una frase como Based on the entire document above....

Ejemplo de instrucción

Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.

Verbosidad de la salida de la dirección

De forma predeterminada, los modelos de Gemini 3 son menos detallados y están diseñados para priorizar las respuestas directas y eficientes.

Si tu caso práctico requiere un perfil más conversacional, debes indicar explícitamente al modelo que sea más charlatán en la petición.

Ejemplo de instrucción

Explain this as a friendly, talkative assistant.

Siguientes pasos