Importa eventos históricos de usuarios

En esta página, se describe cómo importar datos de eventos de usuario de forma masiva desde eventos anteriores a Vertex AI Search for Commerce. Se requieren datos de eventos del usuario para entrenar los modelos. Después de configurar el registro de eventos en tiempo real, puede tomar bastante tiempo en registrar suficientes datos de eventos de usuario para entrenar los modelos. Importar datos históricos puede acelerar el proceso.

Los procedimientos de importación de esta página se aplican tanto a las recomendaciones como a la búsqueda. Después de importar los datos, ambos servicios pueden usar esos eventos, por lo que no es necesario importar los mismos datos dos veces si usas ambos servicios.

Puedes importar eventos desde las siguientes fuentes:

Antes de comenzar

Para evitar errores de importación y verificar que haya datos suficientes para generar buenos resultados, revisa la siguiente información antes de importar tus eventos de usuario.

Consideraciones sobre la importación de eventos

En esta sección, se describen los métodos que se pueden usar para importar por lotes tus eventos de usuario históricos, cuándo puedes usar cada método y algunas de sus limitaciones.

Importar fuente Descripción Cuándo usar Limitaciones
Cloud Storage Importa datos JSON desde archivos (≤ 2 GB, máximo 100) con la consola de Google Cloud o curl. Admite atributos personalizados. Cargas de datos de gran volumen en un solo paso Los datos de GA requieren una exportación adicional a BigQuery antes de pasar a Cloud Storage.
BigQuery Importa desde una tabla de BigQuery con el esquema de Vertex AI Search for Commerce usando la consola de Google Cloud ocurl. Procesar previamente o analizar los datos de eventos antes de la importación Requiere la asignación manual del esquema y tiene un costo de recursos más alto para grandes volúmenes de eventos.
BigQuery y Google Analytics 360 Importación directa de datos existentes de Google Analytics 360 en Vertex AI Search for Commerce Seguimiento de conversiones de GA360 existente; no se necesita asignación de esquemas manual. Hay disponible un subconjunto limitado de atributos. La búsqueda requiere el seguimiento de impresiones de GA.
BigQuery + Google Analytics 4 Importación directa de datos existentes de Google Analytics 4 en Vertex AI Search for Commerce. Seguimiento de conversiones de GA4 existente; no se necesita una asignación de esquema manual. Hay disponible un subconjunto limitado de atributos; la búsqueda requiere claves de parámetros de eventos de search_query.
Importación intercalada Importación con llamadas directas al método userEvents.import. Requisitos de autenticación de backend con alta privacidad La implementación es más compleja que las importaciones estándar basadas en la Web.

Limitaciones de tamaño

Hay un límite total del sistema de 40,000 millones de eventos de usuario. Las siguientes son las limitaciones de tamaño para las importaciones de datos según la plataforma de transferencia:

  • Para realizar una importación masiva desde Cloud Storage, cada archivo debe ser de 2 GB o menos, y puedes incluir hasta 100 archivos en una sola solicitud de importación masiva.

  • Para las importaciones de BigQuery, la limitación de tamaño es de 128 GB.

  • En el caso de las importaciones intercaladas, se recomienda un máximo de 10,000 eventos de usuario por solicitud.

  • Para los días mínimos para registrar eventos de usuario históricos o en vivo para el entrenamiento de modelos y la optimización de la búsqueda, realiza el entrenamiento y el ajuste del modelo. El entrenamiento y el ajuste del modelo inicial pueden tardar entre dos y cinco días o, para conjuntos de datos más grandes, más tiempo.

Para habilitar la clasificación optimizada para los ingresos (nivel 3) y la personalización (nivel 4), no basta con subir eventos search generales. Los modelos de Vertex AI Search requieren un indicador sólido de la intención y la satisfacción del usuario para aprender qué productos tienen un buen rendimiento para búsquedas específicas. Este indicador se proporciona a través de las interacciones del usuario atribuibles. Debes subir los eventos posteriores, específicamente detail-page-view, add-to-cart y purchase-complete.

Por qué son importantes las interacciones del usuario

  • Indicadores de relevancia: Un evento search le indica al modelo lo que quería el usuario. Un detail-page-view (clic) le indica al modelo qué resultado fue pertinente.
  • Indicadores de ingresos: Los eventos add-to-cart y purchase-complete le indican al modelo qué resultados generan valor comercial real.

Umbrales de calidad de los datos para la optimización

Para activar los modelos de optimización de ingresos, tus datos deben cumplir con umbrales específicos de volumen y calidad.

Se requieren las siguientes métricas:

Métrica Requisito Contexto
Volumen de clics atribuibles 250,000 eventos en los últimos 30 díasdetail-page-view Estos deben tener una interacción del usuario válida que los vincule a un resultado de la búsqueda.
Volumen de eventos de búsqueda 2,000,000 de eventos en los últimos 90 días Se requiere una gran cantidad de datos históricos de tráfico de búsqueda como referencia para establecer la importancia estadística.
Densidad de clics 10 eventos de detail-page-view en promedio por producto Garantiza que el modelo tenga suficiente cobertura de señales en todo tu catálogo (en los últimos 30 días).
Indicador de conversión Promedio de 0.5 eventos de add-to-cart por producto Se recomienda utilizar por completo los objetivos que maximizan los ingresos.
Cobertura de precios El 95% de los productos buscados tienen precio. El modelo no puede optimizar los ingresos si no conoce el precio de los productos que se devuelven.

Para obtener más información, consulta la página Calidad de los datos.

Importación masiva con BigQuery o Cloud Storage

Usar BigQuery o Cloud Storage como área de transferencia para los datos de eventos de usuario en Vertex AI Search for Commerce ofrece ventajas distintivas:

  • Resistencia mejorada: Almacenar eventos en BigQuery o Cloud Storage proporciona un mecanismo de copia de seguridad confiable, lo que permite purgar y volver a ingerir los datos si es necesario. Esta capacidad de recuperación protege contra la pérdida de datos y simplifica la recuperación en caso de errores o incoherencias. El método de importación también tiene una capacidad de recuperación integrada en la que los eventos que no se transfirieron se almacenan en buckets de errores junto con los detalles del error.

  • Estadísticas personalizadas in situ: Como los eventos están disponibles en BigQuery, las estadísticas personalizadas se pueden realizar directamente en los datos de eventos del usuario sin necesidad de procesos adicionales de exportación o transferencia de datos. Esto habilita los flujos de trabajo de análisis y las estadísticas en tiempo real.

  • Usa eventos existentes: Las importaciones masivas pueden usar datos de eventos de usuario existentes recopilados en varios formatos. Un proceso sencillo de extracción, transformación y carga (ETL) puede convertir estos datos al formato de Vertex AI Search for Commerce, lo que elimina la necesidad de realizar cambios extensos en el frontend o integraciones complejas.

Estos son los posibles inconvenientes de la importación masiva:

  • Personalización limitada en tiempo real: Las capacidades de personalización en tiempo real están limitadas por la frecuencia de las importaciones masivas. El retraso entre la generación y la transferencia de eventos puede afectar la capacidad de respuesta de los resultados de búsqueda personalizados.

  • Medición de KPI y generación de informes de errores más lentas: En comparación con la transmisión en tiempo real, las importaciones masivas introducen demoras en la medición de KPI y la generación de informes de errores debido a la naturaleza orientada a lotes del proceso. Esto puede dificultar las respuestas inmediatas a las tendencias o los problemas emergentes.

  • Infraestructura de canalización de ETL: En comparación con la transmisión en tiempo real, las canalizaciones de ETL deben compilarse y supervisarse para detectar fallas. También se debe implementar un mecanismo para reintentar las importaciones de eventos fallidos (después de corregirlos). La implementación de esta función puede requerir algunos esfuerzos de desarrollo iniciales.

Comprender estas compensaciones puede guiarte para seleccionar el enfoque de transferencia de eventos del usuario más adecuado para tus casos de uso y prioridades específicos en Vertex AI Search for Commerce.

Importa eventos de usuario desde Cloud Storage

Importa eventos de usuario desde Cloud Storage con la consola de Google Cloud o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Búsqueda para comercios.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona Google Cloud Storage como la fuente de datos.
  5. Elige Esquema de eventos de usuarios de venta minorista como el esquema.
  6. Ingresa la ubicación de Cloud Storage de tus datos.
  7. Haz clic en Importar.

curl

Usa el método userEvents.import para importar tus eventos de usuario.

  1. Crea un archivo de datos para los parámetros de entrada de la importación. Usa el objeto GcsSource para que apunte a tu bucket de Cloud Storage.

    Puedes proporcionar varios archivos o solo uno.

    • INPUT_FILE: Son los archivos en Cloud Storage que contienen los datos de eventos de tu usuario. Consulta Acerca de los eventos de usuario para ver ejemplos de cada formato de tipo de evento de usuario. Asegúrate de que cada evento de usuario esté en su propia línea única, sin saltos de línea.
    • ERROR_DIRECTORY: Un directorio de Cloud Storage para obtener información sobre los errores de la importación

    Los campos de archivo de entrada deben tener el formato gs://<bucket>/<path-to-file>/. El directorio de errores debe tener el formato gs://<bucket>/<folder>/. Si el directorio de errores no existe, Vertex AI Search for Commerce lo crea. El bucket ya debe existir.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
  2. Importa la información de tu catálogo con una solicitud POST al método REST userEvents:import y proporciona el nombre del archivo de datos.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'

Importa eventos de usuario desde BigQuery

Importa eventos de usuario desde BigQuery con la consola de Google Cloud o el método userEvents.import.

Configura el acceso a BigQuery

Sigue las instrucciones en Configura el acceso a tu conjunto de datos de BigQuery para darle a tu cuenta de servicio de Vertex AI Search para comercio electrónico el rol mínimo de Usuario de BigQuery necesario para que la importación se realice correctamente y el rol adicional de Editor de datos de BigQuery para tu conjunto de datos de BigQuery. El rol Propietario de datos de BigQuery no es necesario.

Importa tus eventos de usuario desde BigQuery

Puedes importar eventos de usuario con la consola de Search for Commerce o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Búsqueda para comercios.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usará una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  9. Haz clic en Importar.

curl

Importa tus eventos de usuario incluyendo los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

El valor que especifiques para dataSchema depende de lo que importes:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importa eventos de usuarios de Analytics 360 con BigQuery

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Analytics 360.

Antes de comenzar

Antes de continuar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

  1. Asegúrate de que los datos de eventos de usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    Asegúrate de que la tabla se llame project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Consulta la documentación de Google Analytics para obtener más información sobre el formato y los nombres de las tablas.

  2. En la consola de BigQuery Google Cloud , selecciona la tabla del panel Explorador para obtener una vista previa.

    Verifica lo siguiente:

    1. La columna clientId tiene un valor válido, por ejemplo, 123456789.123456789.

      Ten en cuenta que este valor es diferente del valor completo de la cookie _ga (que tiene un formato como GA1.3.123456789.123456789).

    2. La columna hits.transaction.currencyCode tiene un código de moneda válido.

    3. Si planeas importar eventos search, verifica que haya una columna hits.page.searchKeyword o hits.customVariable.searchQuery.

      Si bien Vertex AI Search for Commerce requiere que tanto searchQuery como productDetails devuelvan una lista de resultados de la búsqueda, Analytics 360 no almacena las búsquedas y las impresiones de productos en un solo evento. Para que Vertex AI Search for Commerce funcione, debes crear una etiqueta en la capa de datos o un píxel de JavaScript para poder importar ambos tipos de eventos del usuario desde las fuentes de Google Analytics:

      • searchQuery, que se lee del parámetro search_term o de los eventos view_search_results, se deriva de hits.page.searchKeyword o de hits.customVariables.customVarValue si hits.customVariables.customVarName es searchQuery.
      • productDetails, la impresión del producto que se lee del parámetro items del evento view_item_list, se toma de hits.product si hits.product.isImpressions es TRUE.
  3. Comprueba la coherencia de los ID de elementos entre el catálogo subido y la tabla de eventos del usuario de Analytics 360.

    Con cualquier ID de producto de la columna hits.product.productSKU en la vista previa de la tabla de BigQuery, usa el método product.get para asegurarte de que el mismo producto esté en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Puedes importar eventos de Google Analytics 360 con la consola de Search for commerce o el método userEvents.import.

Console

  1. Ve a la página Datos> en la consola de Búsqueda para comercios.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usará una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  9. Haz clic en Importar.

REST

Importa tus eventos de usuario mediante la inclusión de los datos de los eventos en tu llamada al método userEvents.import.

Para dataSchema, usa el valor user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Puedes importar eventos de usuario de Analytics 360 si integraste Analytics 360 a BigQuery y usas el Comercio electrónico mejorado.

Importa tus vistas de la página principal de Analytics 360 con BigQuery

En Analytics 360, los eventos de vista de página principal no se distinguen de otros eventos de vista de página. Esto significa que los eventos de home-page-view no se importan como eventos con los otros tipos de eventos (como detail-page-view) en Importa tus eventos de Analytics 360.

En el siguiente procedimiento, se explica cómo puedes extraer eventos de vistas de la página principal de tus datos de Analytics 360 y, luego, importarlos a Vertex AI Search for Commerce. En resumen, esto se hace extrayendo las vistas de los usuarios de la página principal (identificadas por la ruta de acceso de la página principal) en una nueva tabla de BigQuery y, luego, importando datos de esa nueva tabla a Vertex AI Search para comercio.

Para importar eventos de vistas de la página principal de Analytics 360 a Vertex AI Search for Commerce, sigue estos pasos:

  1. Crea un conjunto de datos de BigQuery o asegúrate de tener uno disponible al que puedas agregar una tabla.

    Este conjunto de datos puede estar en tu proyecto de Vertex AI Search for Commerce o en el proyecto en el que tienes tus datos de Analytics 360. Es el conjunto de datos objetivo en el que copiarás los eventos de visualización de la página principal de Analytics 360.

  2. Crea una tabla de BigQuery en el conjunto de datos de la siguiente manera:

    1. Reemplaza las variables del siguiente código SQL de la siguiente manera.

      • target_project_id: Es el proyecto en el que se encuentra el conjunto de datos del paso 1.

      • target_dataset: Es el nombre del conjunto de datos del paso 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
    2. Copia la muestra de código SQL.

    3. Abre la página de BigQuery en la Google Cloud consola.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, selecciona el proyecto de destino.

    5. En el panel Editor, pega el muestra de código en SQL.

    6. Haz clic en Ejecutar y espera a que finalice la ejecución de la consulta.

    Si ejecutas este código, se creará una tabla con el formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, por ejemplo, my-project:view_events.ga_homepage_20230115.

  3. Copia los eventos de vistas de la página principal de Analytics 360 desde tu tabla de datos de Analytics 360 a la tabla creada en el paso 2 anterior.

    1. Reemplaza las variables del siguiente código de ejemplo en SQL de la siguiente manera:

      • source_project_id: Es el ID del proyecto que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_dataset: Es el conjunto de datos del proyecto de origen que contiene los datos de Analytics 360 en una tabla de BigQuery.

      • source_table: Es la tabla del proyecto de origen que contiene los datos de Analytics 360.

      • target_project_id: Es el mismo ID del proyecto de destino que en el paso 2 anterior.

      • target_dataset: Es el mismo conjunto de datos de destino que en el paso anterior.

      • path: Es la ruta de acceso a la página principal. Por lo general, es /; por ejemplo, si la página principal es example.com/. Sin embargo, si la página principal es como examplepetstore.com/index.html, la ruta es /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
    2. Copia la muestra de código SQL.

    3. Abre la página de BigQuery en la Google Cloud consola.

      Ir a la página de BigQuery

    4. Si aún no está seleccionado, selecciona el proyecto de destino.

    5. En el panel Editor, pega el muestra de código en SQL.

    6. Haz clic en Ejecutar y espera a que finalice la ejecución de la consulta.

  4. Sigue las instrucciones en Importa eventos de usuario desde BigQuery para importar los eventos de vista de la página principal desde la tabla de destino. Durante la selección del esquema, si importas datos con la consola, selecciona Esquema de eventos de usuario de venta minorista; si importas datos con userEvents.import, especifica user_event para el valor de dataSchema.

  5. Borra la tabla y el conjunto de datos que creaste en los pasos 1 y 2.

Importa eventos de usuario de Google Analytics 4 con BigQuery

Puedes importar eventos de usuario de Google Analytics 4 si integraste Google Analytics 4 a BigQuery y usas el Comercio electrónico de Google Analytics.

En los siguientes procedimientos, se da por sentado que estás familiarizado con el uso de BigQuery y Google Analytics 4.

Antes de comenzar

Antes de continuar con los siguientes pasos, asegúrate de lo siguiente:

Verifica tu fuente de datos

Para asegurarte de que tus datos de eventos de usuario estén listos para la importación, sigue estos pasos.

Para ver una tabla de los campos de Google Analytics 4 que usa Vertex AI Search for Commerce y los campos de Vertex AI Search for Commerce a los que se asignan, consulta Campos de eventos de usuario de Google Analytics 4.

Para ver todos los parámetros de eventos de Google Analytics, consulta la documentación de referencia de los eventos de Google Analytics.

  1. Asegúrate de que los datos de eventos de usuario que importarás tengan el formato correcto en una tabla de BigQuery a la que tengas acceso.

    • El conjunto de datos debe llamarse analytics_PROPERTY_ID.
    • La tabla debe llamarse events_YYYYMMDD.

    Para obtener información sobre los nombres y el formato de las tablas, consulta la documentación de Google Analytics.

  2. En la consola de BigQuery Google Cloud , selecciona el conjunto de datos en el panel Explorador y busca la tabla de eventos del usuario que planeas importar.

    Verifica lo siguiente:

    1. La columna event_params.key tiene una clave currency y su valor de cadena asociado es un código de moneda válido.

    2. Si planeas importar eventos search, verifica que la columna event.event_params.key tenga una clave search_term y un valor asociado.

      Si bien Vertex AI Search for Commerce requiere que tanto searchQuery como productDetails devuelvan una lista de resultados de la búsqueda, Google Analytics 4 no almacena las búsquedas y las impresiones de productos en un solo evento. Para que Vertex AI Search for Commerce funcione, debes crear una etiqueta en la capa de datos o desde un píxel de JavaScript para poder importar ambos tipos de eventos del usuario desde las fuentes de Google Analytics:

      • searchQuery, que se lee del parámetro search_term o de los eventos view_search_results
      • productDetails, la impresión del producto que se lee del parámetro items del evento view_item_list

      Para obtener información sobre search en Google Analytics 4, consulta search en la documentación de Google Analytics.

  3. Comprueba la coherencia de los IDs de elementos entre el catálogo subido y la tabla de eventos del usuario de Google Analytics 4.

    Para asegurarte de que un producto de la tabla de usuarios de Google Analytics 4 también esté en tu catálogo subido, copia un ID de producto de la columna event.items.item_id en la vista previa de la tabla de BigQuery y usa el método product.get para verificar si ese ID de producto está en tu catálogo subido.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"

Importa tus eventos de Google Analytics 4

Puedes importar eventos de Google Analytics 4 con la consola de Search for commerce o el método userEvents.import.

Usa la consola

  1. Ve a la página Datos> en la consola de Búsqueda para comercios.

    Ir a la página Datos
  2. Haz clic en Importar para abrir el panel Importar datos.
  3. Elige Eventos de usuario.
  4. Selecciona BigQuery como la fuente de datos.
  5. Selecciona el esquema de datos.

  6. Ingresa la tabla de BigQuery donde se encuentran tus datos.
  7. Opcional: Ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.
    Si no se especifica, se usará una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  8. Opcional: En Mostrar opciones avanzadas, ingresa la ubicación de un bucket de Cloud Storage en tu proyecto como una ubicación temporal para tus datos.

    Si no se especifica, se usa una ubicación predeterminada. Si se especifica, el bucket de Cloud Storage y BigQuery deben estar en la misma región.
  9. Haz clic en Importar.

Usa la API

Importa tus eventos de usuario incluyendo los datos de los eventos en tu llamada al método userEvents.import. Consulta la referencia de la API de userEvents.import.

Para dataSchema, usa el valor user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventos de usuario intercalados

Para importar eventos de usuario intercalados, incluye los datos de los eventos en tu llamada al método userEvents.import.

La manera más sencilla de hacerlo es colocar los datos de eventos de usuario en un archivo JSON y proporcionar el archivo a curl.

Para conocer los formatos de los tipos de eventos de usuario, consulta Acerca de los eventos de usuario.

curl

  1. Crea el archivo JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            \{
              "<userEvent1>"
            \},
            \{
              "<userEvent2>"
            \},
            \....
          \]
        \}
      }
    }
    
  2. Llama al método POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Datos históricos de catálogos

También puedes importar los datos del catálogo que aparecen en tus eventos históricos de los usuarios. Estos datos del catálogo pueden ser útiles porque la información del producto anterior se puede usar para enriquecer la captura de eventos del usuario, lo que, a su vez, puede mejorar la exactitud del modelo.

Para obtener más detalles, consulta Importa datos del catálogo histórico.

Cómo ver los eventos importados

Consulta las métricas de integración de eventos en la pestaña Eventos de la página Datos de la consola de Búsqueda para comercio. En esta página, se muestran todos los eventos que se escribieron o importaron en el último año. Las métricas pueden tardar hasta 24 horas en aparecer después de que se transfieren los datos correctamente.

Ir a la página Datos

Evaluación de pruebas A/B

Se aplican los siguientes parámetros para las pruebas A/B, según tu objetivo de prueba:

  • Para un objetivo de porcentaje de clics (CTR), se requieren al menos 21 días de eventos de usuario o volúmenes de eventos específicos. Por ejemplo, más de 2 millones de eventos de búsqueda y más de 500,000 clics en la búsqueda.

  • Para un objetivo de porcentaje de conversiones (CVR) o de ingresos, se requieren al menos 28 días de eventos de usuario o volúmenes de eventos específicos. Por ejemplo, más de 4 millones de eventos de búsqueda, más de 1 millón de clics en la búsqueda y más de 0.5 eventos de compra por producto apto para la búsqueda.

Consulta la página Pruebas A/B para obtener más información sobre las pruebas A/B y las prácticas recomendadas.

¿Qué sigue?