Las peticiones son una parte fundamental para trabajar con cualquier modelo de Gemini. Las nuevas funciones de los modelos de Gemini 3 se pueden usar para resolver problemas complejos y llevar a cabo otras tareas, como interpretar grandes cantidades de texto, resolver problemas matemáticos complejos o incluso crear imágenes y vídeos.
En esta guía se ofrecen varias estrategias de peticiones para ayudarte a sacar el máximo partido a Gemini 3 en Vertex AI en distintos casos prácticos.
Ajuste de temperatura
En el caso de Gemini 3, te recomendamos que mantengas el valor predeterminado del parámetro de temperatura, que es 1.0.
Las funciones de razonamiento de Gemini 3 están optimizadas para el ajuste de temperatura predeterminado y no se benefician necesariamente de la modificación de la temperatura.
Si cambias la temperatura (por debajo de 1.0), es posible que se produzcan comportamientos inesperados, bucles o un rendimiento inferior, sobre todo en tareas matemáticas o de razonamiento complejas.
Estrategias de peticiones
En las siguientes secciones se describen varias estrategias de peticiones que puedes usar con los modelos de Gemini 3.
Reducir la latencia de respuesta
Para obtener respuestas con menor latencia, prueba a definir el nivel de reflexión en LOW
y a usar instrucciones del sistema como think silently.
Distinguir entre deducción e información externa
En algunos casos, si se proporcionan instrucciones del sistema abiertas, como do not infer o do not guess, es posible que el modelo se centre demasiado en esa instrucción y no pueda realizar operaciones lógicas o aritméticas básicas, o sintetizar información que se encuentra en diferentes partes de un documento.
En lugar de usar una restricción negativa general, indica al modelo explícitamente que use la información o el contexto adicionales proporcionados para hacer deducciones y que no use conocimientos externos.
Ejemplos
What was the profit? Do not infer.
Esta instrucción no es eficaz porque la instrucción do not infer es demasiado general.
You are expected to perform calculations and logical deductions based strictly
on the provided text. Do not introduce external information.
En este caso, la instrucción deja claro que el modelo debe usar el contexto proporcionado para hacer cálculos y razonamientos.
Usar la verificación en dos pasos
Cuando el modelo se encuentra con un tema sobre el que no tiene suficiente información (por ejemplo, un lugar poco conocido) o se le pide que realice una acción para la que no tiene capacidad (por ejemplo, acceder a una URL activa específica), puede generar información aparentemente plausible pero incorrecta para intentar satisfacer la solicitud.
Para evitarlo, divide la petición en dos pasos: primero, verifica que la información o la función que quieres usar existe y, después, genera la respuesta basándote en esa información o función.
Ejemplo
Verify with high confidence if you're able to access the New York Times home page.
If you cannot verify, state 'No Info' and STOP. If verified, proceed to generate
a response.
Query: Summarize the headlines from The New York Times today.
Organizar la información y las restricciones importantes
Cuando se trata de peticiones lo suficientemente complejas, el modelo puede omitir las restricciones negativas (instrucciones específicas sobre lo que no se debe hacer) o las restricciones de formato o cuantitativas (instrucciones como el recuento de palabras) si aparecen demasiado pronto en la petición.
Para evitarlo, coloca tu solicitud principal y las restricciones más importantes en la última línea de tus instrucciones. En concreto, las restricciones negativas deben colocarse al final de la instrucción. Una petición bien estructurada podría ser como esta:
- [Contexto y material de origen]
- [Instrucciones de la tarea principal]
- [Restricciones negativas, de formato y cuantitativas]
Usar buyer personas
El modelo se ha diseñado para tratar con seriedad el rol que se le asigna y, en ocasiones, ignorará las instrucciones para mantener la coherencia con el rol descrito. Cuando uses un perfil en tus peticiones, revisa el perfil asignado al modelo y evita situaciones ambiguas.
Ejemplo
You are a data extractor. You are forbidden from clarifying, explaining, or
expanding terms. Output text exactly as it appears. Do not explain why.
Mantener la información de base
El modelo puede usar sus propios conocimientos para responder a tu petición, lo que podría entrar en conflicto con el contexto proporcionado. Aunque el modelo está diseñado para ser útil, si proporcionas una situación hipotética que contradice hechos del mundo real (por ejemplo, si le das un contexto como Crabs are fictional and have never existed.), es posible que el modelo vuelva a sus datos de entrenamiento en lugar de seguir tu petición para alinear tu solicitud con la información que ya tiene.
Si necesitas trabajar en un contexto que no se base en información del mundo real, indica explícitamente que el contexto proporcionado es la única fuente de información veraz para la sesión actual.
Ejemplo
You are a strictly grounded assistant limited to the information provided in the
User Context. In your answers, rely **only** on the facts that are directly
mentioned in that context. You must **not** access or utilize your own knowledge
or common sense to answer. Do not assume or infer from the provided facts;
simply report them exactly as they appear. Your answer must be factual and
fully truthful to the provided text, leaving absolutely no room for speculation
or interpretation. Treat the provided context as the absolute limit of truth;
any facts or details that are not directly mentioned in the context must be
considered **completely untruthful** and **completely unsupported**. If the
exact answer is not explicitly written in the context, you must state that the
information is not available.
Sintetizar varias fuentes de información
Cuando la información se presenta en varios lugares de una fuente de contexto, el modelo a veces puede dejar de procesar información adicional después de la primera coincidencia pertinente.
Cuando trabajes con conjuntos de datos grandes, como libros enteros, bases de código o vídeos largos, coloca tus instrucciones o preguntas específicas al final de la petición, después del contexto de los datos. También puedes basar el razonamiento del modelo en los datos proporcionados empezando tu pregunta con una frase como Based on the entire document above....
Ejemplo de instrucción
Based on the entire document above, provide a comprehensive answer. Synthesize
all relevant information from the text that pertains to the question's scenario.
Verbosidad de la salida de la dirección
De forma predeterminada, los modelos de Gemini 3 son menos detallados y están diseñados para priorizar las respuestas directas y eficientes.
Si tu caso práctico requiere un perfil más conversacional, debes indicar explícitamente al modelo que sea más charlatán en la petición.
Ejemplo de instrucción
Explain this as a friendly, talkative assistant.
Siguientes pasos
- Consulta más información sobre Gemini 3 Pro.
- Prueba el tutorial del cuaderno Introducción a Gemini 3 Pro.
- Consulta información sobre la llamada a funciones.
- Consulta información sobre Pensamiento.