Genera embeddings con modelos de Transformer en formato ONNX

En este instructivo, se muestra cómo exportar un modelo de Transformer al formato Open Neural Network Exchange (ONNX), importar el modelo ONNX a un conjunto de datos de BigQuery y, luego, usar el modelo para generar incorporaciones a partir de una consulta en SQL.

En este instructivo, se usa el modelo sentence-transformers/all-MiniLM-L6-v2. Este modelo de Transformer de oraciones es conocido por su rendimiento rápido y eficaz en la generación de incorporaciones de oraciones. La incorporación de oraciones permite realizar tareas como la búsqueda semántica, la agrupación en clústeres y la similitud de oraciones, ya que captura el significado subyacente del texto.

ONNX proporciona un formato uniforme diseñado para representar cualquier framework de aprendizaje automático (AA). La compatibilidad de BigQuery ML con ONNX te permite hacer lo siguiente:

  • Entrenar un modelo con tu framework favorito.
  • Convierte el modelo al formato de modelo ONNX.
  • Importar el modelo ONNX a BigQuery y hacer predicciones con BigQuery ML.

Convierte los archivos del modelo Transformer a ONNX

De manera opcional, puedes seguir los pasos de esta sección para convertir manualmente el modelo sentence-transformers/all-MiniLM-L6-v2 y el tokenizador a ONNX. De lo contrario, puedes usar archivos de muestra del bucket público de Cloud Storage gs://cloud-samples-data que ya se convirtieron.

Si eliges convertir los archivos de forma manual, debes tener un entorno de línea de comandos local con Python instalado. Para obtener más información sobre la instalación de Python, consulta Descargas de Python.

Exporta el modelo de Transformer a ONNX

Usa la CLI de Hugging Face Optimum para exportar el modelo sentence-transformers/all-MiniLM-L6-v2 a ONNX. Para obtener más información sobre la exportación de modelos con la CLI de Optimum, consulta Exporta un modelo a ONNX con optimum.exporters.onnx.

Para exportar el modelo, abre un entorno de línea de comandos y sigue estos pasos:

  1. Instala la CLI de Optimum:

    pip install optimum[onnx]
    
  2. Exportación del modelo El argumento --model especifica el ID del modelo de Hugging Face. El argumento --opset especifica la versión de la biblioteca de ONNX Runtime y se establece en 17 para mantener la compatibilidad con la biblioteca de ONNX Runtime que admite BigQuery.

    optimum-cli export onnx \
      --model sentence-transformers/all-MiniLM-L6-v2 \
      --task sentence-similarity \
      --opset 17 all-MiniLM-L6-v2/
    

El archivo del modelo se exporta al directorio all-MiniLM-L6-v2 como model.onnx.

Aplica la cuantización al modelo Transformer

Usa la CLI de Optimum para aplicar la cuantización al modelo Transformer exportado y, así, reducir el tamaño del modelo y acelerar la inferencia. Para obtener más información, consulta Cuantización.

Para aplicar la cuantización al modelo, ejecuta el siguiente comando en la línea de comandos:

optimum-cli onnxruntime quantize \
  --onnx_model all-MiniLM-L6-v2/ \
  --avx512_vnni -o all-MiniLM-L6-v2_quantized

El archivo del modelo cuantificado se exporta al directorio all-MiniLM-L6-v2_quantized como model_quantized.onnx.

Convierte el tokenizador a ONNX

Para generar embeddings con un modelo de Transformer en formato ONNX, por lo general, se usa un tokenizador para producir dos entradas para el modelo, input_ids y attention_mask.

Para generar estas entradas, convierte el tokenizador del modelo sentence-transformers/all-MiniLM-L6-v2 al formato ONNX con la biblioteca onnxruntime-extensions. Después de convertir el tokenizador, puedes realizar la tokenización directamente en las entradas de texto sin procesar para generar predicciones de ONNX.

Para convertir el tokenizador, sigue estos pasos en la línea de comandos:

  1. Instala la CLI de Optimum:

    pip install optimum[onnx]
    
  2. Con el editor de texto que prefieras, crea un archivo llamado convert-tokenizer.py. En el siguiente ejemplo, se usa el editor de texto nano:

    nano convert-tokenizer.py
    
  3. Copia y pega la siguiente secuencia de comandos de Python en el archivo convert-tokenizer.py:

    from onnxruntime_extensions import gen_processing_models
    
    # Load the Huggingface tokenizer
    tokenizer = AutoTokenizer.from_pretrained("sentence-transformers/all-MiniLM-L6-v2")
    
    # Export the tokenizer to ONNX using gen_processing_models
    onnx_tokenizer_path = "tokenizer.onnx"
    
    # Generate the tokenizer ONNX model, and set the maximum token length.
    # Ensure 'max_length' is set to a value less than the model's maximum sequence length, failing to do so will result in error during inference.
    tokenizer_onnx_model = gen_processing_models(tokenizer, pre_kwargs={'max_length': 256})[0]
    
    # Modify the tokenizer ONNX model signature.
    # This is because certain tokenizers don't support batch inference.
    tokenizer_onnx_model.graph.input[0].type.tensor_type.shape.dim[0].dim_value = 1
    
    # Save the tokenizer ONNX model
    with open(onnx_tokenizer_path, "wb") as f:
      f.write(tokenizer_onnx_model.SerializeToString())
    
  4. Guarda el archivo convert-tokenizer.py.

  5. Ejecuta la secuencia de comandos de Python para convertir el tokenizador:

    python convert-tokenizer.py
    

El tokenizador convertido se exporta al directorio all-MiniLM-L6-v2_quantized como tokenizer.onnx.

Sube los archivos del modelo convertido a Cloud Storage

Después de convertir el modelo Transformer y el tokenizador, haz lo siguiente:

Crea un conjunto de datos

Crea un conjunto de datos de BigQuery para almacenar tu modelo de AA.

Console

  1. En la consola de Google Cloud , ve a la página BigQuery.

    Ir a la página de BigQuery

  2. En el panel Explorador, haz clic en el nombre de tu proyecto.

  3. Haz clic en Ver acciones > Crear conjunto de datos.

  4. En la página Crear conjunto de datos, haz lo siguiente:

    • En ID del conjunto de datos, ingresa bqml_tutorial.

    • En Tipo de ubicación, selecciona Multirregión y, luego, EE.UU. (varias regiones en Estados Unidos).

    • Deja la configuración predeterminada restante como está y haz clic en Crear conjunto de datos.

bq

Para crear un conjunto de datos nuevo, usa el comando bq mk con la marca --location. Para obtener una lista completa de los parámetros posibles, consulta la referencia del comando bq mk --dataset.

  1. Crea un conjunto de datos llamado bqml_tutorial con la ubicación de los datos establecida en US y una descripción de BigQuery ML tutorial dataset:

    bq --location=US mk -d \
     --description "BigQuery ML tutorial dataset." \
     bqml_tutorial

    En lugar de usar la marca --dataset, el comando usa el acceso directo -d. Si omites -d y --dataset, el comando crea un conjunto de datos de manera predeterminada.

  2. Confirma que se haya creado el conjunto de datos:

    bq ls

API

Llama al método datasets.insert con un recurso de conjunto de datos definido.

{
  "datasetReference": {
     "datasetId": "bqml_tutorial"
  }
}

Permite trabajar con BigQuery DataFrames.

Antes de probar este ejemplo, sigue las instrucciones de configuración de BigQuery DataFrames en la guía de inicio rápido de BigQuery con BigQuery DataFrames. Para obtener más información, consulta la documentación de referencia de BigQuery DataFrames.

Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura ADC para un entorno de desarrollo local.

import google.cloud.bigquery

bqclient = google.cloud.bigquery.Client()
bqclient.create_dataset("bqml_tutorial", exists_ok=True)

Importa los modelos de ONNX a BigQuery

Importa el tokenizador convertido y los modelos de transformadores de oraciones como modelos de BigQuery ML.

Selecciona una de las siguientes opciones:

Console

  1. En la consola de Google Cloud , abre BigQuery Studio.

    Ir a BigQuery Studio

  2. En el editor de consultas, ejecuta la siguiente declaración de CREATE MODEL para crear el modelo tokenizer.

     CREATE OR REPLACE MODEL `bqml_tutorial.tokenizer`
      OPTIONS (MODEL_TYPE='ONNX',
       MODEL_PATH='TOKENIZER_BUCKET_PATH')

    Reemplaza TOKENIZER_BUCKET_PATH por la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TOKENIZER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/tokenizer.onnx.

    Cuando se complete la operación, verás un mensaje similar al siguiente: Successfully created model named tokenizer en el panel Resultados de la búsqueda.

  3. Haz clic en Ir al modelo para abrir el panel Detalles.

  4. Revisa la sección Feature Columns para ver las entradas del modelo y la Label Column para ver los resultados del modelo.

    El panel **Detalles** del modelo de tokenizador

  5. En el editor de consultas, ejecuta la siguiente instrucción CREATE MODEL para crear el modelo all-MiniLM-L6-v2.

     CREATE OR REPLACE MODEL `bqml_tutorial.all-MiniLM-L6-v2`
      OPTIONS (MODEL_TYPE='ONNX',
       MODEL_PATH='TRANSFORMER_BUCKET_PATH')

    Reemplaza TRANSFORMER_BUCKET_PATH por la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TRANSFORMER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/model_quantized.onnx.

    Cuando se complete la operación, verás un mensaje similar al siguiente: Successfully created model named all-MiniLM-L6-v2 en el panel Resultados de la búsqueda.

  6. Haz clic en Ir al modelo para abrir el panel Detalles.

  7. Revisa la sección Feature Columns para ver las entradas del modelo y la Label Column para ver los resultados del modelo.

    El panel **Detalles** del modelo "all-MiniLM-L6-v2"

bq

Usa el comando query de la herramienta de línea de comandos de bq para ejecutar la instrucción CREATE MODEL.

  1. En la línea de comandos, ejecuta el siguiente comando para crear el modelo tokenizer.

    bq query --use_legacy_sql=false \
    "CREATE OR REPLACE MODEL
    `bqml_tutorial.tokenizer`
    OPTIONS
    (MODEL_TYPE='ONNX',
    MODEL_PATH='TOKENIZER_BUCKET_PATH')"

    Reemplaza TOKENIZER_BUCKET_PATH por la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TOKENIZER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/tokenizer.onnx.

    Cuando se complete la operación, verás un mensaje similar al siguiente: Successfully created model named tokenizer.

  2. En la línea de comandos, ejecuta el siguiente comando para crear el modelo all-MiniLM-L6-v2.

    bq query --use_legacy_sql=false \
    "CREATE OR REPLACE MODEL
    `bqml_tutorial.all-MiniLM-L6-v2`
    OPTIONS
    (MODEL_TYPE='ONNX',
      MODEL_PATH='TRANSFORMER_BUCKET_PATH')"

    Reemplaza TRANSFORMER_BUCKET_PATH por la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TRANSFORMER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/model_quantized.onnx.

    Cuando se complete la operación, verás un mensaje similar al siguiente: Successfully created model named all-MiniLM-L6-v2.

  3. Después de importar los modelos, verifica que aparezcan en el conjunto de datos.

    bq ls -m bqml_tutorial

    El resultado es similar a este:

    tableId            Type
    ------------------------
    tokenizer          MODEL
    all-MiniLM-L6-v2   MODEL

API

Usa el método jobs.insert para importar los modelos.Completa el parámetro query del recurso QueryRequest en el cuerpo de la solicitud con la declaración CREATE MODEL.

  1. Usa el siguiente valor del parámetro query para crear el modelo tokenizer.

    {
    "query": "CREATE MODEL `PROJECT_ID :bqml_tutorial.tokenizer` OPTIONS(MODEL_TYPE='ONNX' MODEL_PATH='TOKENIZER_BUCKET_PATH')"
    }

    Reemplaza lo siguiente:

    • PROJECT_ID por el ID del proyecto
    • TOKENIZER_BUCKET_PATH con la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TOKENIZER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/tokenizer.onnx.
  2. Usa el siguiente valor del parámetro query para crear el modelo all-MiniLM-L6-v2.

    {
    "query": "CREATE MODEL `PROJECT_ID :bqml_tutorial.all-MiniLM-L6-v2` OPTIONS(MODEL_TYPE='ONNX' MODEL_PATH='TRANSFORMER_BUCKET_PATH')"
    }

    Reemplaza lo siguiente:

    • PROJECT_ID por el ID del proyecto
    • TRANSFORMER_BUCKET_PATH con la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TRANSFORMER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/model_quantized.onnx.

Permite trabajar con BigQuery DataFrames.

Antes de probar este ejemplo, sigue las instrucciones de configuración de BigQuery DataFrames en la guía de inicio rápido de BigQuery con BigQuery DataFrames. Para obtener más información, consulta la documentación de referencia de BigQuery DataFrames.

Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura ADC para un entorno de desarrollo local.

Importa los modelos de tokenizador y de transformador de oraciones con el objeto ONNXModel.

import bigframes
from bigframes.ml.imported import ONNXModel

bigframes.options.bigquery.project = PROJECT_ID

bigframes.options.bigquery.location = "US"

tokenizer = ONNXModel(
  model_path= "TOKENIZER_BUCKET_PATH"
)
imported_onnx_model = ONNXModel(
  model_path="TRANSFORMER_BUCKET_PATH"
)

Reemplaza lo siguiente:

  • PROJECT_ID por el ID del proyecto
  • TOKENIZER_BUCKET_PATH con la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TOKENIZER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/tokenizer.onnx.
  • TRANSFORMER_BUCKET_PATH con la ruta de acceso al modelo que subiste a Cloud Storage. Si usas el modelo de muestra, reemplaza TRANSFORMER_BUCKET_PATH por el siguiente valor: gs://cloud-samples-data/bigquery/ml/onnx/all-MiniLM-L6-v2/model_quantized.onnx.

Genera embeddings con los modelos ONNX importados

Usa el tokenizador importado y los modelos de Sentence Transformer para generar incorporaciones basadas en los datos del conjunto de datos públicos bigquery-public-data.imdb.reviews.

Selecciona una de las siguientes opciones:

Console

Usa la función ML.PREDICT para generar incorporaciones con los modelos.

La consulta usa una llamada ML.PREDICT anidada para procesar texto sin procesar directamente a través del tokenizador y el modelo de incorporación, de la siguiente manera:

  • Tokenización (consulta interna): La llamada interna a ML.PREDICT usa el modelo bqml_tutorial.tokenizer. Toma la columna title del conjunto de datos públicos bigquery-public-data.imdb.reviews como su entrada text. El modelo tokenizer convierte las cadenas de texto sin procesar en las entradas de tokens numéricos que requiere el modelo principal, incluidas las entradas input_ids y attention_mask.
  • Generación de embeddings (consulta externa): La llamada externa a ML.PREDICT usa el modelo bqml_tutorial.all-MiniLM-L6-v2. La consulta toma las columnas input_ids y attention_mask del resultado de la consulta interna como entrada.

La instrucción SELECT recupera la columna sentence_embedding, que es un array de valores FLOAT que representan la incorporación semántica del texto.

  1. En la consola de Google Cloud , abre BigQuery Studio.

    Ir a BigQuery Studio

  2. En el editor de consultas, ejecuta la siguiente consulta.

    SELECT
    sentence_embedding
    FROM
    ML.PREDICT (MODEL `bqml_tutorial.all-MiniLM-L6-v2`,
      (
      SELECT
        input_ids, attention_mask
      FROM
        ML.PREDICT(MODEL `bqml_tutorial.tokenizer`,
          (
          SELECT
            title AS text
          FROM
            `bigquery-public-data.imdb.reviews` limit 10))))

    El resultado es similar al siguiente:

    +-----------------------+
    | sentence_embedding    |
    +-----------------------+
    | -0.02361682802438736  |
    | 0.02025664784014225   |
    | 0.005168713629245758  |
    | -0.026361213997006416 |
    | 0.0655381828546524    |
    | ...                   |
    +-----------------------+
    

bq

Usa el comando query de la herramienta de línea de comandos de bq para ejecutar una consulta. La consulta usa la función ML.PREDICT para generar incorporaciones con los modelos.

La consulta usa una llamada ML.PREDICT anidada para procesar texto sin procesar directamente a través del tokenizador y el modelo de incorporación, de la siguiente manera:

  • Tokenización (consulta interna): La llamada interna a ML.PREDICT usa el modelo bqml_tutorial.tokenizer. Toma la columna title del conjunto de datos públicos bigquery-public-data.imdb.reviews como su entrada text. El modelo tokenizer convierte las cadenas de texto sin procesar en las entradas de tokens numéricos que requiere el modelo principal, incluidas las entradas input_ids y attention_mask.
  • Generación de embeddings (consulta externa): La llamada externa a ML.PREDICT usa el modelo bqml_tutorial.all-MiniLM-L6-v2. La consulta toma las columnas input_ids y attention_mask del resultado de la consulta interna como entrada.

La instrucción SELECT recupera la columna sentence_embedding, que es un array de valores FLOAT que representan la incorporación semántica del texto.

En la línea de comandos, ejecuta el siguiente comando para ejecutar la consulta.

bq query --use_legacy_sql=false \
'SELECT
sentence_embedding
FROM
ML.PREDICT (MODEL `bqml_tutorial.all-MiniLM-L6-v2`,
  (
  SELECT
    input_ids, attention_mask
  FROM
    ML.PREDICT(MODEL `bqml_tutorial.tokenizer`,
      (
      SELECT
        title AS text
      FROM
        `bigquery-public-data.imdb.reviews` limit 10))))'

El resultado es similar al siguiente:

+-----------------------+
| sentence_embedding    |
+-----------------------+
| -0.02361682802438736  |
| 0.02025664784014225   |
| 0.005168713629245758  |
| -0.026361213997006416 |
| 0.0655381828546524    |
| ...                   |
+-----------------------+

Permite trabajar con BigQuery DataFrames.

Antes de probar este ejemplo, sigue las instrucciones de configuración de BigQuery DataFrames en la guía de inicio rápido de BigQuery con BigQuery DataFrames. Para obtener más información, consulta la documentación de referencia de BigQuery DataFrames.

Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura ADC para un entorno de desarrollo local.

Usa el método predict para generar embeddings con los modelos ONNX.

import bigframes.pandas as bpd

df = bpd.read_gbq("bigquery-public-data.imdb.reviews", max_results=10)
df_pred = df.rename(columns={"title": "text"})
tokens = tokenizer.predict(df_pred)
predictions = imported_onnx_model.predict(tokens)
predictions.peek(5)

El resultado es similar a este:

Es la salida del modelo Transformer.