Realiza consultas SQL inteligentes con funciones basadas en IA

En esta página, se describe cómo realizar consultas con los operadores de SQL potenciados por IA que proporcionan las funciones basadas en IA. Puedes usar los operadores ai.if para filtros, ai.rank y ai.generate para combinar lenguaje natural con consultas en SQL.

Para usar las instrucciones de esta página, debes comprender AlloyDB y conocer los conceptos de la IA generativa.

AlloyDB AI reserva y crea el esquema ai.

Antes de comenzar

Antes de usar el lenguaje natural en los operadores de SQL, haz lo siguiente:

Integra la extensión en Vertex AI y, luego, instálala

  1. Configura el acceso de los usuarios a los modelos de Vertex AI.
  2. Verifica que esté instalada la versión más reciente de google_ml_integration.
    1. Para verificar la versión instalada, ejecuta el siguiente comando:

              SELECT extversion FROM pg_extension WHERE extname = 'google_ml_integration';
              extversion 
              ------------
              1.5.2
              (1 row)
            
    2. Si la extensión no está instalada o si la versión instalada es anterior a la 1.5.2, actualízala.

              CREATE EXTENSION IF NOT EXISTS google_ml_integration;
              ALTER EXTENSION google_ml_integration UPDATE;
            

      Si tienes problemas cuando ejecutas los comandos anteriores o si la extensión no se actualiza a la versión 1.5.2 después de ejecutar los comandos anteriores, comunícate con el Google Cloud equipo de asistencia.

  3. Para usar la funcionalidad del motor de consultas de AlloyDB AI, establece la marca google_ml_integration.enable_ai_query_engine en true.

    SQL

    1. Habilita el motor de consultas de IA para la sesión actual.
                    SET google_ml_integration.enable_ai_query_engine = true;
                    
    2. Habilita funciones para una base de datos específica en todas las sesiones.
                    ALTER DATABASE DATABASE_NAME SET google_ml_integration.enable_ai_query_engine = 'on';
                    
    3. Habilita el motor de consultas de IA para un usuario específico en todas las sesiones y bases de datos.
                    ALTER ROLE postgres SET google_ml_integration.enable_ai_query_engine = 'on';
                  

    Console

    Para modificar el valor de la marca google_ml_integration.enable_ai_query_engine, sigue los pasos que se indican en Configura las marcas de base de datos de una instancia.

    gcloud

    Para usar gcloud CLI, puedes instalar y, luego, inicializar Google Cloud CLI, o bien usar Cloud Shell.

    Puedes modificar el valor de la marca google_ml_integration.enable_ai_query_engine. Para obtener más información, consulta Configura las marcas de base de datos de una instancia.

                 gcloud alloydb instances update INSTANCE_ID \
                   --database-flags google_ml_integration.enable_ai_query_engine=on \
                   --region=REGION_ID \
                   --cluster=CLUSTER_ID \
                   --project=PROJECT_ID
                

Usa un modelo de Gemini compatible con tu región

Si tu clúster de AlloyDB para PostgreSQL se encuentra en una región en la que no se admite gemini-2.0-flash, puedes usar uno de los otros modelos de Gemini disponibles en tu región con model_id parameter.

También puedes registrar un extremo del modelo de Gemini y proporcionar ese ID del modelo a los operadores de IA. Para obtener más información, consulta Cómo registrar y llamar a modelos de IA remotos con la administración de extremos de modelos.

En el siguiente ejemplo, se muestra cómo registrar otro extremo de Gemini. En este ejemplo, el segundo extremo de Gemini es el extremo global para gemini-2.0-flash. Puedes usar este modelo registrado con operadores de IA pasando model_id =>gemini-2.0-flash-global` como argumento adicional.

CALL
  google_ml.create_model(
    model_id => 'gemini-2.0-flash-global',
    model_type => 'llm',
    model_provider => 'google',
    model_qualified_name => 'gemini-2.0-flash',
    model_request_url =>  'https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/google/models/gemini-2.0-flash:generateContent',
    model_auth_type => 'alloydb_service_agent_iam'
);

Usa los modelos de Gemini 3.0

Algunos modelos de Gemini, como gemini-3.0-pro-preview, solo están disponibles a través del extremo global. Debes registrar estos modelos de la siguiente manera:

CALL
  google_ml.create_model(
    model_id => 'gemini-3-preview-model',
    model_request_url => 'https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/google/models/gemini-3-pro-preview:generateContent',
    model_qualified_name => 'gemini-3-pro-preview',
    model_provider => 'google',
    model_type => 'llm',
    model_auth_type => 'alloydb_service_agent_iam'
);

Reemplaza PROJECT_ID por el ID del proyecto en el que está disponible el modelo de Vertex AI. Ten en cuenta que la cuenta de servicio de AlloyDB debe tener el rol de usuario de Vertex AI en ese proyecto.

Después de registrar el modelo, puedes usarlo en las funciones de IA de la siguiente manera:

SELECT ai.generate(prompt => 'What is AlloyDB?', model_id => 'gemini-3-preview-model');

Usa filtros en tus consultas

AlloyDB AI ofrece varias funciones de SQL potenciadas por IA que te permiten usar el procesamiento de lenguaje natural y los LLM directamente en tus consultas de bases de datos, incluidos los operadores ai.if y ai.rank.

Filtros

Para evaluar si se cumple una condición establecida en lenguaje natural, usa el operador ai.if/google_ml.if. La función devuelve un valor booleano verdadero o falso, y devuelve false si no se detecta claramente la salida.

- Function signature
FUNCTION ai.if(prompt TEXT, model_id VARCHAR(100) DEFAULT NULL) RETURNS bool

En el siguiente ejemplo, se muestra el uso del operador ai.if como filtro para encontrar restaurantes con más de 500 opiniones positivas ubicados en ciudades con una población superior a 100,000 habitantes. En el ejemplo, se usa restaurant_reviews y se incluyen datos como opiniones y la ubicación de la ciudad. El operador ai.if te ayuda a comprender el sentimiento de la opinión y a combinar las ubicaciones de la base de datos con el conocimiento general de Gemini sobre la población en esas ubicaciones.

SELECT r.name, r.location_city
FROM restaurant_reviews r
WHERE
  AI.IF(r.location_city || ' has a population OF more than 100,000 AND the following is a positive review; Review: ' || r.review)
GROUP BY r.name, r.location_city
HAVING COUNT(*) > 500;

A continuación, se muestra el mismo ejemplo con el modelo que registraste en Usa un modelo de Gemini compatible con tu región.

SELECT r.name, r.location_city
FROM restaurant_reviews r
WHERE
  AI.IF(r.location_city || ' has a population of more than 100,000 AND the following is a positive review; Review: ' || r.review, model_id => 'gemini-2.0-flash-global')
GROUP BY r.name, r.location_city
HAVING COUNT(*) > 500;

Realiza una unión en una consulta que usa el operador if

Para realizar una operación de unión, usa el operador ai.if/google_ml.if con la unión. La siguiente consulta de ejemplo busca la cantidad de opiniones que mencionan cada elemento del menú del restaurante.

    SELECT item_name, COUNT(*)
    FROM menu_items JOIN user_reviews
      ON ai.if(
        prompt => 'Does the following user review talk about the menu item mentioned ? review: ' || user_reviews.review_text || ' menu item: ' || item_name)
    GROUP BY item_name;

Creación y resumen de textos

La función ai.generate produce texto combinando los datos proporcionados con la instrucción del usuario.

-- Function Signature
FUNCTION ai.generate(prompt TEXT, model_id VARCHAR(100) DEFAULT NULL) RETURNS TEXT

Por ejemplo, puedes usar la siguiente consulta para generar un resumen conciso de cada opinión del usuario.

SELECT
  ai.generate(
    prompt => 'Summarize the review in 20 words or less. Review: ' || review) AS review_summary
FROM user_reviews

Cómo calificar los resultados de tu búsqueda

Si necesitas ordenar los resultados de la búsqueda con instrucciones personalizadas en lenguaje natural, usa el operador ai.rank. Esta función te permite proporcionar una instrucción que describe los criterios de clasificación y devuelve una puntuación para cada elemento.

-- Function signature
FUNCTION ai.rank(prompt TEXT, model_id VARCHAR(100) DEFAULT NULL) RETURNS real

Por ejemplo, la siguiente consulta obtiene las 20 opiniones más positivas sobre restaurantes, utilizando las puntuaciones de un LLM.

SELECT review AS top20
FROM user_reviews
ORDER BY ai.rank(
  'Score the following review according to these rules:
  (1) Score OF 8 to 10 IF the review says the food IS excellent.
  (2) 4 to 7 IF the review says the food is ok.
  (3) 1 to 3 IF the review says the food is not good. Here is the review:' || review) DESC
LIMIT 20;

¿Qué sigue?