Nesta página, descrevemos como invocar previsões usando funções dos namespaces public
e google_ml
. A extensão google_ml_integration
inclui funções de previsão para esses namespaces.
É possível usar a função ml_predict_row()
no esquema public
com qualquer modelo genérico hospedado na Vertex AI sem registrar o endpoint. A função google_ml.predict_row()
no esquema google_ml
pode ser usada com qualquer modelo registrado no gerenciamento de endpoints de modelo.
Para invocar previsões, selecione um dos seguintes esquemas.
Antes de começar
Para permitir que o AlloyDB invoque previsões, faça o seguinte:
- É possível invocar previsões nas regiões em que a IA generativa na Vertex AI está disponível. Para uma lista de regiões, consulte Locais da IA generativa na Vertex AI.
- Conecte-se ao banco de dados usando
psql
ou o AlloyDB para PostgreSQL Studio. - Verifique se a extensão
google_ml_integration
está instalada. - Verifique se a flag
google_ml_integration.enable_model_support
está definida comoon
. - Antes de invocar previsões de um banco de dados do AlloyDB, configure o AlloyDB para trabalhar com a Vertex AI. Para mais informações, consulte Integrar seu banco de dados à Vertex AI.
- Você precisa ter um modelo ativo da Vertex AI com um endpoint ativo a que você tem permissão de Identity and Access Management (IAM). O AlloyDB não é compatível com endpoints particulares para receber previsões on-line.
Conceda permissões aos usuários do banco de dados para executar a função de previsão e invocar previsões:
\c DB_NAME; GRANT EXECUTE ON FUNCTION ml_predict_row TO USER_NAME;
Substitua:
DB_NAME: o nome do banco de dados em que as permissões devem ser concedidas
USER_NAME: o nome do usuário para quem as permissões devem ser concedidas
Invocar previsões on-line
Use a função SQL ml_predict_row()
para invocar previsões on-line
nos seus dados.
O formato do argumento inicial da função depende se o modelo de ML que você quer usar está no Model Garden da Vertex AI ou é um endpoint em execução em um projeto Google Cloud .
Usar um modelo no Model Garden da Vertex AI
Para invocar uma previsão on-line usando um modelo de ML em execução no Model Garden
da Vertex AI, use a seguinte sintaxe para a função SQL google_ml.predict_row()
:
SELECT ml_predict_row('projects/PROJECT_ID/locations/REGION_ID/publishers/google/models/MODEL_ID', '{ CONTENTS }');
Substitua:
PROJECT_ID
: o ID do projeto Google CloudREGION_ID
: o ID da região Google Cloud em que o modelo está localizado. Por exemplo,us-central1
para gemini-pro.MODEL_ID
: o ID do modelo de ML a ser usado, por exemplo, gemini-proCONTENTS
: as entradas para a chamada de previsão, no formato JSON
Se o modelo de ML estiver armazenado no mesmo projeto e região do cluster do AlloyDB, você poderá abreviar o primeiro argumento desta função:
SELECT ml_predict_row('publishers/google/models/MODEL_ID', '{ CONTENTS }');
Para informações sobre as mensagens de resposta JSON do modelo, consulte Referência do modelo básico de IA generativa.
Para ver exemplos, consulte Invocações de exemplo.
Usar um endpoint de modelo da Vertex AI
Para invocar uma previsão on-line usando um endpoint de modelo da Vertex AI, use a seguinte sintaxe para a função SQL ml_predict_row()
:
SELECT ml_predict_row('projects/PROJECT_ID/locations/REGION_ID/endpoints/ENDPOINT_ID', '{ CONTENTS }');
Substitua:
PROJECT_ID
: o ID do projeto Google Cloud em que o modelo está localizadoREGION_ID
: o ID da região Google Cloud em que o modelo está localizado, por exemplo,us-central1
.ENDPOINT_ID
: o ID do endpoint do modeloCONTENTS
: as entradas para a chamada de previsão, no formato JSON
Se o endpoint estiver localizado no mesmo projeto e região que o cluster do AlloyDB, você poderá abreviar o primeiro argumento desta função:
SELECT ml_predict_row('endpoints/ENDPOINT_ID', '{ CONTENTS }');
Para informações sobre as mensagens de resposta JSON do modelo, consulte PredictResponse.
Invocações de exemplo
O exemplo a seguir usa o gemini-pro, disponível no Model Garden, para gerar texto com base em um comando curto fornecido como um argumento literal
para ml_predict_row()
:
SELECT
json_array_elements(ml_predict_row('publishers/google/models/gemini-1.5-pro:streamGenerateContent',
'{ "contents": [ { "role": "user", "parts": [ { "text": "For TPCH database schema as mentioned here https://www.tpc.org/TPC_Documents_Current_Versions/pdf/TPC-H_v3.0.1.pdf , generate a SQL query to find all supplier names which are located in the India nation."
} ] } ] }'))-> 'candidates' -> 0 -> 'content' -> 'parts' -> 0 -> 'text';
A resposta é um objeto JSON. Para mais informações sobre o formato do objeto, consulte Corpo da resposta.
O próximo exemplo modifica o anterior das seguintes maneiras:
O exemplo usa o conteúdo da coluna
messages.message
do banco de dados atual como entrada.O exemplo demonstra o uso da função
json_build_object()
como ajuda para formatar os parâmetros da função.
select ml_predict_row('projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.5-pro:generateContent', json_build_object('contents', json_build_object('text', message))) from messages;
O objeto JSON retornado agora contém uma entrada na matriz predictions
para cada linha na tabela messages
.
Como a resposta é um objeto JSON, é possível extrair campos específicos dele usando o operador de seta do PostgreSQL:
select ml_predict_row('projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.5-pro:generateContent', json_build_object('contents', json_build_object('text', message)))->'predictions'->0->'content' FROM messages;
Para mais exemplos de argumentos para ml_predict_row()
, consulte o Guia de início rápido sobre como usar a API Vertex AI.