Prima di iniziare
Questo tutorial presuppone che tu abbia letto e seguito le istruzioni riportate in:
- Sviluppa un agente LlamaIndexQueryPipeline: per sviluppare
agent
come istanza diLlamaIndexQueryPipelineAgent
. - Autenticazione utente per l'autenticazione come utente per interrogare l'agente.
- Importa e inizializza l'SDK per inizializzare il client per ottenere un'istanza di cui è stato eseguito il deployment (se necessario).
Recupera un'istanza di un agente
Per eseguire una query su un LlamaIndexQueryPipelineAgent
, devi prima
creare una nuova istanza o
recuperare un'istanza esistente.
Per ottenere l'LlamaIndexQueryPipelineAgent
corrispondente a un ID risorsa specifico:
SDK Vertex AI per Python
Esegui questo codice:
import vertexai
client = vertexai.Client( # For service interactions via client.agent_engines
project="PROJECT_ID",
location="LOCATION",
)
agent = client.agent_engines.get(name="projects/PROJECT_ID/locations/LOCATION/reasoningEngines/RESOURCE_ID")
print(agent)
dove
PROJECT_ID
è l'ID progetto Google Cloud in cui sviluppi e implementi gli agenti.LOCATION
è una delle regioni supportate.RESOURCE_ID
è l'ID dell'agente di cui è stato eseguito il deployment come risorsareasoningEngine
.
Libreria delle richieste Python
Esegui questo codice:
from google import auth as google_auth
from google.auth.transport import requests as google_requests
import requests
def get_identity_token():
credentials, _ = google_auth.default()
auth_request = google_requests.Request()
credentials.refresh(auth_request)
return credentials.token
response = requests.get(
f"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/reasoningEngines/RESOURCE_ID",
headers={
"Content-Type": "application/json; charset=utf-8",
"Authorization": f"Bearer {get_identity_token()}",
},
)
API REST
curl \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/reasoningEngines/RESOURCE_ID
Quando utilizzi l'SDK Vertex AI per Python, l'oggetto agent
corrisponde a una
classe AgentEngine
che contiene quanto segue:
- un
agent.api_resource
con informazioni sull'agente di cui è stato eseguito il deployment. Puoi anche chiamareagent.operation_schemas()
per restituire l'elenco delle operazioni supportate dall'agente. Per maggiori dettagli, vedi Operazioni supportate. - un
agent.api_client
che consente interazioni di servizio sincrone - un
agent.async_api_client
che consente interazioni di servizio asincrone
Il resto di questa sezione presuppone che tu abbia un'istanza AgentEngine
denominata agent
.
Operazioni supportate
Per LlamaIndexQueryPipelineAgent
sono supportate le seguenti operazioni:
query
: per ottenere una risposta a una query in modo sincrono.
Il metodo query
supporta il seguente tipo di argomento:
input
: i messaggi da inviare all'agente.
Interrogare l'agente
Il comando:
agent.query(input="What is Paul Graham's life in college?")
è equivalente al seguente (in forma completa):
agent.query(input={"input": "What is Paul Graham's life in college?"})
Per personalizzare il dizionario di input, vedi Personalizzare il modello di prompt.
Puoi anche personalizzare il comportamento dell'agente oltre input
passando argomenti di parole chiave aggiuntivi a query()
.
response = agent.query(
input={
"input" = [
"What is Paul Graham's life in college?",
"How did Paul Graham's college experience shape his career?",
"How did Paul Graham's college experience shape his entrepreneurial mindset?",
],
},
batch=True # run the pipeline in batch mode and pass a list of inputs.
)
print(response)
Per un elenco completo dei parametri disponibili, consulta il codice QueryPipeline.run
.
Passaggi successivi
- Utilizzare un agente.
- Valuta un agente.
- Gestisci gli agenti di cui è stato eseguito il deployment.
- Richiedere assistenza.