En esta página se ofrecen directrices y prácticas recomendadas generales para registrar eventos de usuario. Consulta los tutoriales para empezar.
Antes de empezar
- Verifica que los datos se hayan importado por completo de Google Analytics 4 a BigQuery.
- Comprueba el estado de la importación en la consola y consulta Configurar una alerta para la reducción de la grabación de eventos de usuario para solucionar problemas.
- Antes de importar el historial de datos de eventos de usuario, consulta las prácticas recomendadas para registrar eventos de usuario y la sección Antes de empezar de esta página.
- Importar datos de catálogo históricos puede mejorar aún más los eventos de usuario y la precisión del modelo.
Tutoriales
En estos tutoriales se muestra cómo importar eventos de usuario de varias fuentes.
Importar eventos de Cloud Storage
En este tutorial se explica cómo importar eventos de usuario de Cloud Storage.
Para seguir las instrucciones paso a paso de esta tarea directamente en el editor de Cloud Shell, haz clic en Ayúdame:
Importar eventos de BigQuery
En este tutorial se explica cómo importar eventos de usuario de BigQuery.
Para seguir las instrucciones paso a paso de esta tarea directamente en el editor de Cloud Shell, haz clic en Ayúdame:
Importar eventos insertados
En este tutorial se explica cómo importar datos de eventos de usuario de forma insertada.
Para seguir las instrucciones paso a paso de esta tarea directamente en el editor de Cloud Shell, haz clic en Ayúdame:
La canalización de ingestión de datos de Vertex AI Search for commerce abarca tanto el catálogo de productos como los datos de eventos de usuario. Este flujo de datos proporciona la base para el entrenamiento de modelos y la evaluación continua a través de mecanismos de comentarios. La ingestión de datos precisa y completa es un proceso continuo para mantener la adaptabilidad de los modelos subyacentes, lo que influye directamente en la calidad y la relevancia de los resultados de búsqueda.
Prácticas recomendadas generales para la ingestión de eventos de usuario
Ten en cuenta estas prácticas recomendadas de ingesta de datos al diseñar tu solución de búsqueda para maximizar la eficiencia y la eficacia.
Ingerir eventos de usuario en Vertex AI Search for commerce
Al igual que el proceso de ingestión de catálogos, Vertex AI Search for commerce ofrece dos mecanismos para los datos de eventos de usuario. La importación en bloque y el streaming en tiempo real ofrecen flexibilidad para las diversas arquitecturas backend de los clientes. Sin embargo, a diferencia del catálogo, donde es viable un enfoque híbrido, una estrategia de ingesta específica es mejor para los eventos de usuario. De las dos opciones, la transmisión en tiempo real es la estándar en las implementaciones prácticas.
Ambos ofrecen resultados comparables en el entrenamiento de modelos, la medición de KPIs y la optimización de ingresos, pero existen pequeñas diferencias. Por ejemplo, la importación en bloque puede ser más eficiente para procesar grandes volúmenes de datos históricos, mientras que la transmisión en tiempo real ofrece una respuesta más rápida a los usuarios.
La elección depende de los requisitos de tu entorno de venta, como los siguientes:
- Latencia objetivo para incorporar eventos de usuario al entrenamiento del modelo.
- El volumen de eventos que se genera.
Escalar la ingestión de eventos de usuario en Vertex AI Search for commerce
Prepárate para los picos de tráfico y garantiza la integridad de los datos planificando de forma proactiva los escenarios de escalado. Los eventos especiales con mucho tráfico, como las rebajas de fin de semana, pueden provocar un aumento de entre 10 y 20 veces en la actividad de los usuarios. Es fundamental que tengas suficientes cuotas y que tu sistema de ingesta sea escalable para gestionar estos picos.
Estos eventos suelen manifestarse como picos de tráfico repentinos, no como aumentos graduales. Si faltan eventos durante estos periodos de picos, se puede dificultar el entrenamiento del modelo, reducir el rendimiento de la búsqueda y sesgar las mediciones de los KPIs. Depurar problemas puede ser complicado, ya que los eventos son la base del seguimiento de los KPIs y de la solución de problemas generales. Si implementa alertas sólidas, podrá recibir notificaciones cuando la calidad de los datos se deteriore, lo que suele ser consecuencia de que falten datos de eventos o de que sean erróneos.
Si anticipa estas situaciones y toma medidas, podrá mantener la fiabilidad y la precisión de los datos de eventos de usuario, incluso en condiciones de carga extremas. Si los datos son precisos, tu sistema Vertex AI Search for commerce podrá ofrecer un rendimiento optimizado, analíticas precisas y una experiencia centrada en el usuario durante los picos de tráfico.
Arquitectura de referencia para la ingestión de eventos por lotes
La ingestión por lotes requiere una arquitectura escalable diseñada para ingerir de forma eficiente eventos de usuario en Vertex AI Search for commerce. La arquitectura se compone de Google Cloud servicios, como Pub/Sub, Dataflow, BigQuery, Workflows y Cloud Storage, para gestionar el proceso de ingestión de forma controlada y por fases.
Información general sobre la arquitectura
La arquitectura de ingestión de eventos por lotes emplea un enfoque de varias fases para asegurar la transferencia fiable y precisa de los datos de eventos de usuario a Vertex AI Search for commerce.
Entre los componentes clave se incluyen los siguientes:
- Pub/Sub: actúa como punto de entrada inicial de los eventos de usuario y proporciona un sistema de mensajería escalable y duradero.
- Dataflow (eventos de streaming): lee continuamente los eventos de usuario sin procesar de Pub/Sub y los escribe en las tablas de eventos sin procesar de BigQuery. También registra los eventos fallidos para depurarlos.
- BigQuery actúa como solución principal de almacenamiento de datos, ya que almacena eventos sin procesar, eventos transformados y varios metadatos relacionados con el proceso de ingesta.
- Workflows: orquesta el procesamiento por lotes cada hora de los eventos sin procesar, lo que garantiza la integridad de los datos y facilita la gestión de errores.
- Cloud Storage: proporciona almacenamiento temporal para Dataflow durante el procesamiento y para archivar los registros de eventos fallidos.
- Vertex AI Search for commerce: el destino final de los datos de eventos de usuario, que permite disfrutar de funciones avanzadas de búsqueda y recomendación.
Flujo de datos paso a paso
Este es el flujo de datos paso a paso para la ingestión de eventos en bloque.
Streaming de eventos y persistencia de datos sin procesar:
- Los eventos de usuario se publican en temas de Pub/Sub desde el sistema de origen del cliente.
- Un flujo de procesamiento de streaming de Dataflow (eventos de streaming) lee eventos de Pub/Sub continuamente.
- Los eventos sin procesar que se envían correctamente se escriben en las tablas de eventos sin procesar de BigQuery.
- Los errores que se produzcan durante esta ingestión inicial se registran y almacenan en tablas de errores sin procesar de BigQuery independientes para analizarlos y solucionarlos.
Procesamiento y transformación por lotes cada hora:
- Workflows activa un flujo de procesamiento de Dataflow programado cada hora (Incr Batch Events).
- Este flujo de procesamiento lee eventos sin procesar de tablas de BigQuery.
- Los eventos se transforman al formato requerido de Vertex AI Search for commerce.
- Los eventos transformados se escriben en tablas de eventos seleccionadas de BigQuery.
- Los errores de transformación se registran en tablas de eventos fallidos seleccionadas de BigQuery.
Validación y preparación de datos:
- Workflows ejecuta un procedimiento almacenado de BigQuery para crear o actualizar una vista (Incr Update Event View) que refleje los datos de eventos transformados más recientes de la última hora.
- A continuación, el flujo de trabajo realiza una comprobación de validación en esta vista para asegurarse de que el número de eventos transformados se encuentra dentro de los umbrales predefinidos.
Importación de Vertex AI Search for commerce:
- Si la validación se realiza correctamente, Workflows invoca la API de eventos de importación de Vertex AI Search for commerce y la dirige a la vista de BigQuery que contiene los eventos transformados.
- A continuación, Vertex AI Search for commerce importa estos eventos para procesarlos e indexarlos.
Consideraciones adicionales sobre la ingestión de eventos por lotes
Otros aspectos que debe tener en cuenta al ingerir eventos por lotes:
- Seguridad: se deben implementar medidas de seguridad adecuadas, como controles de acceso y cifrado, para proteger los datos de eventos de los usuarios sensibles.
- Monitorización y registro: se deben configurar funciones de monitorización y registro completas para hacer un seguimiento del rendimiento del sistema e identificar posibles problemas de forma proactiva.
- Optimización de costes: se debe monitorizar el uso de los recursos para optimizar los costes y asegurar un uso eficiente de los servicios de Google Cloud .
Esta arquitectura proporciona una base para ingerir eventos de usuario en Vertex AI Search for commerce. Al usar varios Google Cloud servicios e incorporar prácticas recomendadas para el tratamiento de datos y la gestión de errores, las organizaciones pueden crear soluciones escalables y fáciles de mantener para ofrecer experiencias de búsqueda y recomendación avanzadas.
Siguientes pasos
Para saber cómo funcionan los eventos de usuario en general, consulta el artículo Acerca de los eventos de usuario.
Para obtener instrucciones más detalladas sobre cada método de ingesta, consulta las páginas sobre la importación en bloque y el streaming de eventos en tiempo real.