Esta página mostra como enviar comandos de chat para um modelo Gemini através da consola Google Cloud , da API REST e dos SDKs suportados.
Para saber como adicionar imagens e outro conteúdo multimédia ao seu pedido, consulte o artigo Compreensão de imagens.
Para ver uma lista dos idiomas suportados pelo Gemini, consulte o artigo Suporte de idiomas.
Para explorar os modelos e as APIs de IA generativa disponíveis no Vertex AI, aceda ao Model Garden na Google Cloud consola.
Se procura uma forma de usar o Gemini diretamente a partir das suas apps para dispositivos móveis e Web, consulte os SDKs do cliente da Firebase AI Logic para apps Swift, Android, Web, Flutter e Unity.
Gerar texto
Para testar e iterar comandos de chat, recomendamos que use aGoogle Cloud consola. Para enviar comandos programaticamente para o modelo, pode usar a API REST, o SDK de IA gen da Google, o SDK Vertex AI para Python ou uma das outras bibliotecas e SDKs suportados.
Pode usar instruções do sistema para orientar o comportamento do modelo com base numa necessidade ou num exemplo de utilização específico. Por exemplo, pode definir uma personagem ou uma função para um chatbot que responde a pedidos do serviço de apoio ao cliente. Para mais informações, consulte os exemplos de código de instruções do sistema.
Pode usar o SDK de IA gen da Google para enviar pedidos se estiver a usar o Gemini 2.0 Flash.
Segue-se um exemplo simples de geração de texto.
Python
Instalação
pip install --upgrade google-genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Go
Saiba como instalar ou atualizar o Go.
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Node.js
Instalação
npm install @google/genai
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Java
Saiba como instalar ou atualizar o Java.
Para saber mais, consulte a documentação de referência do SDK.
Defina variáveis de ambiente para usar o SDK de IA generativa com o Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Respostas de streaming e não streaming
Pode escolher se o modelo gera respostas de streaming ou respostas de não streaming. Para respostas de streaming, recebe cada resposta assim que o respetivo token de saída é gerado. Para respostas sem streaming, recebe todas as respostas depois de todos os tokens de saída serem gerados.
Segue-se um exemplo de geração de texto em streaming.
Python
Antes de experimentar este exemplo, siga as Pythoninstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Python Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Comportamento do chat de várias interações do Gemini
Quando usa o chat de várias interações, o Vertex AI armazena localmente o conteúdo inicial e os comandos que enviou para o modelo. O Vertex AI envia todos estes dados com cada pedido subsequente ao modelo. Consequentemente, os custos de entrada de cada mensagem que envia são um total contínuo de todos os dados que já foram enviados para o modelo. Se o conteúdo inicial for suficientemente grande, considere usar a colocação em cache de contexto quando criar o objeto do modelo inicial para controlar melhor os custos de entrada.
O que se segue?
Saiba como enviar pedidos de comandos multimodais:
Saiba mais sobre as práticas recomendadas de IA responsável e os filtros de segurança da Vertex AI.