En esta página, se muestra cómo enviar mensajes de chat a un modelo de Gemini con la Google Cloud consola, la API de REST y los SDK compatibles.
Para obtener información sobre cómo agregar imágenes y otros elementos multimedia a tu solicitud, consulta Comprensión de imágenes.
Para obtener una lista de los idiomas compatibles con Gemini, consulta Idiomas admitidos.
Para explorar los modelos y las APIs de IA generativa que están disponibles en Vertex AI, ve a Model Garden en la consola de Google Cloud .
Si buscas una manera de usar Gemini directamente desde tus apps web y para dispositivos móviles, consulta los SDK de cliente de Firebase AI Logic para apps de Swift, Android, Web, Flutter y Unity.
Generar texto
Para probar y, luego, iterar los mensajes de chat, recomendamos usar la consola deGoogle Cloud . Para enviar instrucciones de manera programática al modelo, puedes usar la API de REST, el SDK de IA generativa de Google, el SDK de Vertex AI para Python o una de las otras bibliotecas y SDK compatibles.
Puedes usar instrucciones del sistema para dirigir el comportamiento del modelo según una necesidad o un caso de uso específicos. Por ejemplo, puedes definir un personaje o rol para un chatbot que responda a las solicitudes de atención al cliente. Para obtener más información, consulta las muestras de código de instrucciones del sistema.
Puedes usar el SDK de IA generativa de Google para enviar solicitudes si usas Gemini 2.0 Flash.
Este es un ejemplo simple de generación de texto.
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Go
Obtén más información para instalar o actualizar Go.
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Node.js
Instalar
npm install @google/genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Java
Obtén más información para instalar o actualizar Java.
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Respuestas de transmisión y sin transmisión
Puedes elegir si el modelo genera respuestas de transmisión o sin transmisión. Para las respuestas de transmisión, recibirás cada respuesta en cuanto se genere su token de salida. En el caso de las respuestas sin transmisión continua, recibes todas las respuestas después de que se generan todos los tokens de salida.
A continuación, se muestra un ejemplo de generación de texto en tiempo real.
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python incluidas en la guía de inicio rápido de Vertex AI sobre cómo usar bibliotecas cliente. Para obtener más información, consulta la documentación de referencia de la API de Vertex AI Python.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Comportamiento del chat de Gemini de varios turnos
Cuando usas el chat de varias turnos, Vertex AI almacena de forma local el contenido inicial y las instrucciones que enviaste al modelo. Vertex AI envía todos estos datos con cada solicitud posterior al modelo. Por lo tanto, los costos de entrada de cada mensaje que envías son un total acumulado de todos los datos que ya se enviaron al modelo. Si tu contenido inicial es lo suficientemente grande, considera usar el almacenamiento en caché del contexto cuando crees el objeto del modelo inicial para controlar mejor los costos de entrada.
¿Qué sigue?
Aprende a enviar solicitudes de mensajes multimodales.
Obtén información sobre las prácticas recomendadas de IA responsable y los filtros de seguridad de Vertex AI.