Nesta página, mostramos como enviar solicitações de chat para um modelo do Gemini usando o console Google Cloud , a API REST e os SDKs compatíveis.
Para saber como adicionar imagens e outras mídias à sua solicitação, consulte Compreensão de imagem.
Para acessar uma lista de idiomas compatíveis com o Gemini, consulte Suporte a idiomas.
Para conferir os modelos de IA generativa e as APIs disponíveis na Vertex AI, acesse o Model Garden no console Google Cloud .
Se você está procurando uma maneira de usar o Gemini diretamente no seu dispositivo móvel e e apps da Web, consulte os SDKs de cliente do Firebase AI Logic para apps Swift, Android, Web, Flutter e Unity.
Gerar texto
Para testar e iterar em comandos de chat, recomendamos usar o console doGoogle Cloud . Para enviar solicitações de maneira programática ao modelo, é possível usar a API REST, o SDK da IA generativa do Google, o SDK da Vertex AI para Python ou uma das outras bibliotecas e SDKs compatíveis.
É possível usar instruções do sistema para orientar o comportamento do modelo com base em um uma necessidade ou um caso de uso específico. Por exemplo, é possível definir uma persona ou um papel chatbot que responde a solicitações de atendimento ao cliente. Para mais informações, consulte as exemplos de código de instruções do sistema (link em inglês).
É possível usar o SDK da IA generativa do Google para enviar solicitações se você estiver usando o Gemini 2.0 Flash.
Confira um exemplo simples de geração de texto.
Python
Instalar
pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Go
Saiba como instalar ou atualizar o Go.
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Node.js
Instalar
npm install @google/genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Java
Saiba como instalar ou atualizar o Java.
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Respostas com e sem streaming
Escolha se o modelo vai gerar respostas de streaming ou sem streaming. Para respostas de streaming, você recebe cada resposta assim que o token de saída for gerado. Para respostas que não são de streaming, você recebe todas as respostas depois que todos os tokens de saída forem gerados.
Confira um exemplo de geração de texto por streaming.
Python
Antes de testar esse exemplo, siga as instruções de configuração para Python no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Python.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Comportamento do chat multiturno do Gemini
Ao usar o chat em várias rodadas, a Vertex AI armazena localmente o conteúdo inicial e os comandos enviados ao modelo. A Vertex AI envia todos esses dados com cada solicitação subsequente ao modelo. Consequentemente, os custos de entrada de cada mensagem enviada são um total contínuo de todos os dados já enviados ao modelo. Se o conteúdo inicial for grande o suficiente, considere usar o armazenamento em cache de contexto ao criar o objeto do modelo inicial para controlar melhor os custos de entrada.
A seguir
Saiba como enviar solicitações de comandos multimodais:
Saiba mais sobre as práticas recomendadas de IA responsável e os filtros de segurança da Vertex AI.