O otimizador de zero disparos permite refinar e melhorar automaticamente os comandos escritos pelos utilizadores. Muitas vezes, um comando pode não produzir a resposta do modelo que pretende devido a linguagem ambígua, contexto em falta ou inclusão de informações irrelevantes. Este otimizador analisa e reescreve um comando existente para ser mais claro, mais eficaz e mais alinhado com as capacidades do modelo, o que, em última análise, gera respostas de maior qualidade.
O otimizador de zero exemplos é particularmente útil para:
Adaptação às atualizações de modelos: quando atualiza para uma versão mais recente de um modelo, os seus comandos existentes podem deixar de ter um desempenho ideal.
Melhorar a compreensão dos comandos: quando a formulação de um comando é complexa ou pode ser mal interpretada, a ferramenta pode reformulá-la para máxima clareza e precisão, reduzindo a probabilidade de um resultado indesejável.
Existem duas formas de usar o otimizador:
Geração de instruções: em vez de escrever instruções complexas do sistema desde o início, pode descrever o seu objetivo ou tarefa em linguagem simples. Em seguida, o otimizador gera um conjunto completo e bem estruturado de instruções do sistema concebidas para alcançar o seu objetivo.
Refinamento de comandos: tem um comando funcional, mas o resultado do modelo é inconsistente, ligeiramente fora do tópico ou não tem os detalhes que quer. O otimizador pode ajudar a melhorar o comando para um melhor resultado.
O otimizador suporta a otimização de comandos em todos os idiomas suportados pelo Gemini e está disponível através do SDK do Vertex AI
Antes de começar
Para garantir que a conta de serviço predefinida do Compute Engine tem as autorizações necessárias para otimizar os comandos, peça ao seu administrador para conceder à conta de serviço predefinida do Compute Engine as seguintes funções do IAM no projeto:
-
Utilizador do Vertex AI (
roles/aiplatform.user
) -
Agente de serviço da Vertex AI (
roles/aiplatform.serviceAgent
)
Para mais informações sobre a atribuição de funções, consulte o artigo Faça a gestão do acesso a projetos, pastas e organizações.
O administrador também pode conceder à conta de serviço predefinida do Compute Engine as autorizações necessárias através de funções personalizadas ou outras funções predefinidas.
Otimize um comando
# Import libraries
import vertexai
import logging
# Google Colab authentication
from google.colab import auth
PROJECT_NAME = "PROJECT"
auth.authenticate_user(project_id=PROJECT_NAME)
# Initialize the Vertex AI client
client = vertexai.Client(project=PROJECT_NAME, location='us-central1')
# Input original prompt to optimize
prompt = """You are a professional chef. Your goal is teaching how to cook healthy cooking recipes to your apprentice.
Given a question from your apprentice and some context, provide the correct answer to the question.
Use the context to return a single and correct answer with some explanation.
"""
# Optimize prompt
output = client.prompt_optimizer.optimize_prompt(prompt=prompt)
# View optimized prompt
print(output.model_dump_json(indent=2))
Este objeto output
é do tipo OptimizeResponse
e fornece informações
acerca do processo de otimização. A parte mais importante é o
suggested_prompt
, que contém o comando otimizado que pode usar para obter
melhores resultados do seu modelo. Os outros campos, especialmente o campo applicable_guidelines
, são úteis para compreender por que motivo e como o seu comando foi melhorado, o que pode ajudar a escrever melhores comandos no futuro. Segue-se um
exemplo do resultado:
{
"optimization_mode": "zero_shot",
"applicable_guidelines": [
{
"applicable_guideline": "Structure",
"suggested_improvement": "Add role definition.",
"text_before_change": "...",
"text_after_change": "Role: You are an AI assistant...\n\nTask Context:\n..."
},
{
"applicable_guideline": "RedundancyInstructions",
"suggested_improvement": "Remove redundant explanation.",
"text_before_change": "...",
"text_after_change": ""
}
],
"original_prompt": "...",
"suggested_prompt": "Role: You are an AI assistant...\n\nTask Context:\n..."
}