Questa pagina fornisce indicazioni e best practice generali per l'importazione degli eventi utente. Per iniziare, guarda i tutorial.
Prima di iniziare
- Verifica che i dati siano stati importati completamente da Google Analytics 4 a BigQuery.
- Controlla lo stato dell'importazione nella console e consulta la sezione Configurare un avviso per la riduzione della registrazione degli eventi utente per la risoluzione dei problemi.
- Prima di importare i dati storici degli eventi utente, consulta le best practice per la registrazione degli eventi utente e la sezione Prima di iniziare di questa pagina.
- L'importazione di dati storici del catalogo può migliorare ulteriormente gli eventi utente e l'accuratezza del modello.
Tutorial
Questi tutorial mostrano come importare gli eventi utente da varie origini.
Importa eventi da Cloud Storage
Questo tutorial mostra come importare gli eventi utente da Cloud Storage.
Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:
Importare eventi da BigQuery
Questo tutorial mostra come importare gli eventi utente da BigQuery.
Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:
Importare eventi in linea
Questo tutorial mostra come importare i dati degli eventi utente in linea.
Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:
La pipeline di importazione dati di Vertex AI Search for commerce comprende sia il catalogo dei prodotti sia i dati degli eventi utente. Questo stream di dati fornisce le basi per l'addestramento del modello e la valutazione continua tramite meccanismi di feedback. L'importazione dati accurati e completi è un processo continuo per mantenere l'adattabilità dei modelli sottostanti, influenzando direttamente la qualità e la pertinenza dei risultati di ricerca.
Best practice generali per l'importazione degli eventi utente
Tieni in considerazione queste best practice per l'importazione dati quando progetti la tua soluzione di ricerca per massimizzare l'efficienza e l'efficacia.
Importa eventi utente in Vertex AI Search for commerce
Analogamente al processo di importazione del catalogo, Vertex AI Search for commerce offre due meccanismi per i dati degli eventi utente. L'importazione collettiva e lo streaming in tempo reale offrono flessibilità per diverse architetture di backend dei clienti. A differenza del catalogo, in cui è fattibile un approccio ibrido, una strategia di importazione dedicata è migliore per gli eventi utente. Delle due opzioni, lo streaming in tempo reale è lo standard nelle implementazioni pratiche.
Entrambi producono risultati comparabili nell'addestramento del modello, nella misurazione dei KPI e nell'ottimizzazione delle entrate, ma esistono compromessi sottili. L'importazione collettiva, ad esempio, potrebbe essere più efficiente per l'elaborazione di volumi di dati storici, mentre lo streaming è più reattivo agli utenti.
La scelta dipende dai requisiti del tuo ambiente di vendita al dettaglio, ad esempio:
- Il target di latenza per l'incorporamento degli eventi utente nell'addestramento del modello.
- Il volume di eventi generati.
Scalare l'importazione di eventi utente in Vertex AI Search for commerce
Preparati ai picchi di traffico e garantisci l'integrità dei dati pianificando in modo proattivo gli scenari di scalabilità. Eventi speciali con traffico elevato, come le vendite del fine settimana, possono causare un aumento dell'attività utente di 10-20 volte. È fondamentale disporre di quote sufficienti e della scalabilità del sistema di importazione per gestire questi picchi.
Questi eventi spesso si manifestano come picchi improvvisi di traffico, non aumenti graduali. Gli eventi mancanti durante questi periodi di picco possono ostacolare l'addestramento del modello, peggiorare il rendimento della ricerca e distorcere le misurazioni dei KPI. Il debug dei problemi può essere difficile, perché gli eventi costituiscono la base per il monitoraggio dei KPI e la risoluzione generale dei problemi. L'implementazione di avvisi efficaci può informarti del deterioramento della qualità dei dati, spesso conseguenza di dati sugli eventi mancanti o errati.
Anticipando questi scenari e intervenendo, mantieni l'affidabilità e l'accuratezza dei dati sugli eventi utente, anche in condizioni di carico estreme. Dati accurati creano le basi per consentire al sistema Vertex AI Search for commerce di offrire prestazioni ottimizzate, analisi accurate e un'esperienza incentrata sull'utente durante i picchi di traffico.
Architettura di riferimento per l'importazione di eventi batch
L'importazione batch richiede un'architettura scalabile progettata per l'importazione efficiente di eventi utente in Vertex AI Search for commerce. L'architettura è composta da Google Cloud servizi, tra cui Pub/Sub, Dataflow, BigQuery, Workflows e Cloud Storage, per gestire il processo di importazione in modo controllato e in più fasi.
Panoramica dell'architettura
L'architettura di importazione batch degli eventi utilizza un approccio in più fasi per garantire il trasferimento affidabile e accurato dei dati degli eventi utente in Vertex AI Search for commerce.
I componenti chiave includono:
- Pub/Sub: funge da punto di ingresso iniziale per gli eventi utente, fornendo un sistema di messaggistica scalabile e durevole.
- Dataflow (eventi di streaming): legge continuamente gli eventi utente non elaborati da Pub/Sub e li scrive nelle tabelle degli eventi non elaborati BigQuery, acquisendo anche gli eventi non riusciti per il debug.
- BigQuery: funge da soluzione di data warehousing principale, archiviando eventi non elaborati, eventi trasformati e vari metadati correlati al processo di importazione.
- Flussi di lavoro: orchestra l'elaborazione batch oraria degli eventi non elaborati, garantendo l'integrità dei dati e facilitando la gestione degli errori.
- Cloud Storage: fornisce spazio di archiviazione temporaneo per Dataflow durante l'elaborazione e per l'archiviazione dei log degli eventi non riusciti.
- Vertex AI Search for Commerce: la destinazione finale per i dati degli eventi utente, che consente funzionalità avanzate di ricerca e suggerimenti.
Flusso di dati passo passo
Di seguito è riportato il flusso di dati passo passo per l'importazione collettiva degli eventi.
Streaming di eventi e persistenza dei dati non elaborati:
- Gli eventi utente vengono pubblicati negli argomenti Pub/Sub dal sistema di origine del cliente.
- Una pipeline di streaming Dataflow (eventi di streaming) legge continuamente gli eventi da Pub/Sub.
- Gli eventi non elaborati riusciti vengono scritti nelle tabelle degli eventi non elaborati di BigQuery.
- Eventuali errori durante questa importazione iniziale vengono acquisiti e archiviati in tabelle non elaborate separate di BigQuery per l'analisi e la risoluzione dei problemi.
Elaborazione e trasformazione batch oraria:
- Workflows attivano una pipeline Dataflow pianificata ogni ora (Incr Batch Events).
- Questa pipeline legge gli eventi non elaborati dalle tabelle BigQuery.
- Gli eventi vengono trasformati nel formato Vertex AI Search for commerce richiesto.
- Gli eventi trasformati vengono scritti nelle tabelle degli eventi curati di BigQuery.
- Eventuali errori di trasformazione vengono acquisiti nelle tabelle degli eventi non riusciti curate di BigQuery.
Convalida e preparazione dei dati:
- Workflows eseguono una stored procedure BigQuery per creare o aggiornare una vista (Incr Update Event View) che riflette i dati sugli eventi trasformati più recenti dell'ultima ora.
- Il flusso di lavoro esegue quindi un controllo di convalida su questa visualizzazione, assicurandosi che il numero di eventi trasformati rientri nelle soglie predefinite.
Importazione di Vertex AI Search for commerce:
- Se la convalida ha esito positivo, Workflows richiama l'API di eventi di importazione di Vertex AI Search for Commerce, indirizzandola alla visualizzazione BigQuery contenente gli eventi trasformati.
- Vertex AI Search for commerce importa questi eventi per l'ulteriore elaborazione e indicizzazione.
Considerazioni aggiuntive per l'importazione di eventi batch
Altri aspetti da considerare durante l'importazione degli eventi batch sono:
- Sicurezza: è necessario implementare misure di sicurezza appropriate, come controlli dell'accesso e crittografia, per proteggere i dati sensibili sugli eventi utente.
- Monitoraggio e logging: è necessario configurare un monitoraggio e un logging completi per monitorare le prestazioni del sistema e identificare in modo proattivo potenziali problemi.
- Ottimizzazione dei costi: l'utilizzo delle risorse deve essere monitorato per ottimizzare i costi e garantire un utilizzo efficiente dei servizi Google Cloud .
Questa architettura fornisce una base per l'importazione di eventi utente in Vertex AI Search for commerce. Utilizzando vari servizi Google Cloud e incorporando le best practice per il trattamento dei dati e la gestione degli errori, consente alle organizzazioni di creare soluzioni scalabili e gestibili per esperienze avanzate di ricerca e consigli.
Passaggi successivi
Per capire come funzionano in generale gli eventi utente, consulta Informazioni sugli eventi utente.
Per istruzioni più dettagliate su ciascun metodo di importazione, consulta le pagine relative all'importazione collettiva e allo streaming di eventi in tempo reale.