このページでは、過去のイベントからユーザー イベントデータを Vertex AI Search for Commerce に一括インポートする方法について説明します。モデルのトレーニングにはユーザー イベントデータが必要です。イベントの記録の設定後、モデルのトレーニングに十分なユーザー イベント データが記録されるまでに、かなりの時間がかかる場合があります。過去のデータをインポートすると、プロセスを加速できます。
このページのインポート手順は、レコメンデーションと検索の両方に適用されます。データをいったんインポートすると、両方のサービスでこれらのイベントを使用できるようになります。そのため、両方のサービスを使用する場合、同じデータを 2 回インポートする必要はありません。
次の場所から予定をインポートできます。
- Cloud Storage。
- (BigQuery など)へのレプリケーションを円滑にします。
- Google アナリティクス 360 イベントの BigQuery。
- Google アナリティクス 4 のイベントの BigQuery。
userEvents.importメソッドを使用して、インラインでイベントをインポートします。
始める前に
インポート エラーを回避し、良好な結果を生成するのに十分なデータがあることを確認するには、ユーザー イベントをインポートする前に次の情報を確認します。
ユーザー イベントの記録に関するベスト プラクティスを確認します。
ユーザー イベントの形式は、ユーザー イベント タイプによって異なります。各イベントタイプの表を作成するときに指定する形式については、ユーザー イベント タイプとサンプル スキーマをご覧ください。
レコメンデーションと検索では、最小データ要件が異なります。ユーザー イベントが、使用するサービスの要件を満たしていることを確認してください。
検索とレコメンデーションの要件については、ユーザー イベントの要件とベスト プラクティスをご覧ください。
また、レコメンデーション モデルを使用する場合は、ユーザー イベント データの要件もご覧ください。使用する予定のレコメンデーション モデルのタイプと最適化目標に応じた追加の要件を示しています。
イベントのインポートに関する考慮事項
このセクションでは、過去のユーザー イベントの一括インポートに使用できる手段、各手段を使用するタイミング、その制限事項について説明します。
| インポート ソース | 説明 | 使用する状況 | 制限事項 |
|---|---|---|---|
| Cloud Storage |
Google Cloud コンソールまたは curl を使用して、ファイルから JSON データをインポートします(≤ 2 GB、最大 100 個)。カスタム属性をサポートします。 |
1 回のステップで大量のデータを読み込む。 | GA データは、Cloud Storage に移動する前に BigQuery に別途エクスポートする必要があります。 |
| BigQuery |
Google Cloud コンソールまたは curl を使用して、Vertex AI Search for Commerce スキーマを使用する BigQuery テーブルからインポートします。 |
インポート前にイベントデータを前処理または分析する。 | スキーマの手動マッピングが必要。イベント量が多い場合、リソース費用が高くなる。 |
| BigQuery + Google アナリティクス 360 | 既存の Google アナリティクス 360 データを Vertex AI Search for Commerce に直接インポートします。 | 既存の GA360 コンバージョン トラッキング。スキーマを手動でマッピングする必要はありません。 | 利用可能な属性のサブセットは限定的です。検索には GA インプレッション トラッキングが必要です。 |
| BigQuery + Google アナリティクス 4 | 既存の Google アナリティクス 4 データを Vertex AI Search for Commerce に直接インポートします。 | 既存の GA4 コンバージョン トラッキング。スキーマを手動でマッピングする必要はありません。 |
利用可能な属性のサブセットは限定的です。検索には search_query イベント パラメータキーが必要です。 |
| インライン インポート |
直接 userEvents.import メソッド呼び出しを使用してインポートします。 |
プライバシー保護レベルの高いバックエンドの認証要件。 | 標準のウェブベースのインポートよりも実装が複雑です。 |
サイズの制限
システムの上限は、ユーザー イベントの合計で 400 億件です。取り込みプラットフォームごとのデータ インポートのサイズ制限は次のとおりです。
Cloud Storage からの一括インポートの場合、各ファイルは 2 GB 以下である必要があります。1 回の一括インポート リクエストに含めることができるファイル数は最大 100 個です。
BigQuery のインポートの場合、サイズの上限は 128 GB です。
インライン インポートの場合、リクエストごとに推奨されるユーザー イベントの最大数は 10,000 件です。
モデルのトレーニングと検索の最適化のために、ライブ ユーザー イベントを記録するか、過去のユーザー イベントをインポートする最小日数を設定します。最初のモデルのトレーニングとチューニングには 2 ~ 5 日かかりますが、大規模なデータセットの場合はさらに時間がかかることがあります。
検索イベントをユーザー操作にリンクする
収益最適化ランキング(階層 3)とパーソナライズ(階層 4)を有効にするには、一般的な search イベントをアップロードするだけでは不十分です。Vertex AI Search モデルでは、特定のクエリに対してどの商品がパフォーマンスを発揮しているかを学習するために、ユーザーの意図と満足度を示す強力なシグナルが必要です。このシグナルは、アトリビューション可能なユーザー操作によって提供されます。後続のイベント(具体的には detail-page-view、add-to-cart、purchase-complete)をアップロードする必要があります。
ユーザーの操作が重要な理由
- 関連性シグナル:
searchイベントは、ユーザーが何を求めていたかをモデルに伝えます。detail-page-view(クリック)は、どの結果が関連性があったかをモデルに伝えます。 - 収益シグナル:
add-to-cartイベントとpurchase-completeイベントは、実際のビジネス価値を高める結果をモデルに伝えます。
最適化のデータ品質のしきい値
収益最適化モデルを有効にするには、データが特定の量と品質の基準を満たしている必要があります。
次の指標は必須です。
| 指標 | 要件 | コンテキスト |
|---|---|---|
| アトリビューション可能なクリック数 |
過去 30 日間の detail-page-view イベント数: 250,000 |
これらは、検索結果にリンクする有効なユーザー操作が必要です。 |
| 検索イベントのボリューム | 過去 90 日間に 2,000,000 件のイベントが発生している | 統計的有意性を確立するには、過去の検索トラフィックの大きなベースラインが必要です。 |
| クリック密度 |
プロダクトごとに平均 10 件の detail-page-view イベント
|
モデルがカタログ全体で十分なシグナル カバレッジを確保します(過去 30 日間)。 |
| コンバージョン シグナル |
プロダクトあたりの平均 add-to-cart イベント数が 0.5 |
収益を最大化する目標を最大限に活用することをおすすめします。 |
| 料金マッチ率 | 検索された商品の 95% に価格が表示されている | 返品される商品の価格がわからない場合、モデルは収益を最適化できません。 |
詳細については、データ品質のページをご覧ください。
BigQuery または Cloud Storage を使用した一括インポート
Vertex AI Search for Commerce でユーザー イベントデータのステージング エリアとして BigQuery または Cloud Storage を使用すると、次のようなメリットがあります。
復元性の強化: BigQuery または Cloud Storage にイベントを保存すると、信頼性の高いバックアップ メカニズムが提供され、必要に応じてパージと再取り込みが可能になります。この復元力により、エラーや不整合が発生した場合のデータ損失を防ぎ、復元を簡素化できます。インポート方法には、取り込まれなかったイベントがエラーの詳細とともにエラーバケットに保存される組み込みの復元力もあります。
インプレース カスタム分析: BigQuery でイベントに簡単にアクセスできるため、追加のデータ エクスポートや転送プロセスを必要とせずに、ユーザー イベントデータに対してカスタム分析を直接実行できます。これにより、分析ワークフローとリアルタイムの分析情報が可能になります。
既存のイベントを使用する: 一括インポートでは、さまざまな形式で収集された既存のユーザー イベント データを使用できます。簡単な抽出、変換、読み込み(ETL)プロセスで、このデータを Vertex AI Search for Commerce 形式に変換できるため、大規模なフロントエンドの変更や複雑な統合は不要です。
一括インポートの潜在的なデメリットは次のとおりです。
リアルタイムのパーソナライズの制限: リアルタイムのパーソナライズ機能は、一括インポートの頻度によって制約されます。イベントの生成と取り込みの間の時間差は、パーソナライズされた検索結果の応答性に影響する可能性があります。
KPI の測定とエラー報告の遅延: リアルタイム ストリーミングと比較して、一括インポートでは、プロセスのバッチ指向の性質により、KPI の測定とエラー報告に遅延が生じます。これにより、新たなトレンドや問題に迅速に対応できなくなる可能性があります。
ETL パイプライン インフラストラクチャ: リアルタイム ストリーミングと比較して、ETL パイプラインは構築して障害をモニタリングする必要があります。失敗したイベントのインポートを再試行するメカニズム(修正後)も実装する必要があります。これを実装するには、初期の開発作業が必要になる場合があります。
これらのトレードオフを理解することで、Vertex AI Search for Commerce 内の特定のユースケースと優先事項に最適なユーザー イベント取り込みアプローチを選択できます。
Cloud Storage からユーザー イベントをインポート
Cloud Storage からユーザー イベントは、 Google Cloud コンソールまたは userEvents.import メソッドを使用してインポートします。
コンソール
-
Search for commerce コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [Google Cloud Storage] を選択します。
- スキーマとして [Retail ユーザー イベント スキーマ] を選択します。
- データの Cloud Storage のロケーションを入力します。
- [インポート] をクリックします。
curl
ユーザー イベントは、userEvents.import メソッドを使用してインポートします。
インポートの入力パラメータのデータファイルを作成します。
GcsSourceオブジェクトを使用して、Cloud Storage バケットを指定します。複数のファイルを指定することも、1 つを指定することもできます。
- INPUT_FILE: ユーザー イベント データが格納されている Cloud Storage 内の 1 つまたは複数のファイル。各ユーザー イベント タイプのフォーマットの例については、ユーザー イベントについてをご覧ください。各ユーザー イベントは、改行がないそれ自体の単一の行であることを確認してください。
- ERROR_DIRECTORY: インポートに関するエラー情報用の Cloud Storage ディレクトリ。
入力ファイル フィールドは
gs://<bucket>/<path-to-file>/の形式にする必要があります。エラー ディレクトリは、gs://<bucket>/<folder>/の形式にする必要があります。 エラー ディレクトリが存在しない場合は、Vertex AI Search for Commerce によって作成されます。バケットはすでに存在している必要があります。{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
カタログ情報をインポートするには、
userEvents:importREST メソッドに対してPOSTリクエストを実行し、データファイルの名前を指定します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
BigQuery からデータをインポートする
BigQuery からユーザー イベントは、 Google Cloud コンソールか userEvents.import メソッドを使用してインポートします。
BigQuery アクセスを設定する
BigQuery データセットへのアクセスの設定の手順に沿って、Vertex AI Search for commerce のサービス アカウントに、インポートを成功させるために必要な最小限の BigQuery ユーザーロールと、BigQuery データセットに対する追加の BigQuery データ編集者ロールを付与します。BigQuery データオーナーのロールは不要です。
BigQuery からユーザー イベントをインポートする
ユーザー イベントをインポートするには、コマース コンソールまたは userEvents.import メソッドを使用します。
コンソール
-
Search for commerce コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
curl
ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。userEvents.import API リファレンスをご覧ください。
dataSchema に指定する値は、インポートする内容によって異なります。
user_event_ga4: Google アナリティクス 4 のイベントに使用します。user_event_ga360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 からホームページビューのみをインポートする場合は除きます。その場合は、user_eventを使用します。user_event: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'BigQuery でアナリティクス 360 のユーザー イベントをインポートする
以下の手順は、BigQuery とアナリティクス 360 の使用に精通していることを前提とします。
始める前に
次の手順を開始する前に、以下の点をご確認ください。
- 拡張 e コマースを使用している。
- BigQuery がアナリティクス 360 にリンクされている。
データソースを確認する
インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。
テーブルが
project_id:ga360_export_dataset.ga_sessions_YYYYMMDDという名前であることを確認してください。テーブルの形式と命名の詳細については、Google アナリティクスのドキュメントをご覧ください。
BigQuery Google Cloud コンソールで、[エクスプローラ] パネルからテーブルを選択してテーブルをプレビューします。
以下を確認します。
clientId列に有効な値(たとえば、123456789.123456789)がある。この値は、完全な _ga Cookie 値(
GA1.3.123456789.123456789のような形式)とは異なります。hits.transaction.currencyCode列に有効な通貨コードがある。searchイベントをインポートする予定の場合は、hits.page.searchKeyword列またはhits.customVariable.searchQuery列が存在することを確認します。Vertex AI Search for Commerce では、
searchQueryとproductDetailsの両方で検索結果のリストを返す必要がありますが、アナリティクス 360 では、検索クエリと商品のインプレッションの両方が 1 つのイベントに保存されることはありません。Vertex AI Search for Commerce を機能させるには、データレイヤーでタグを作成するか、JavaScript ピクセルを作成して、Google アナリティクスのソースから両方のタイプのユーザー イベントをインポートできるようにする必要があります。searchQuery(search_termパラメータまたはview_search_resultsイベントから読み取られる)は、hits.page.searchKeywordから、またはhits.customVariables.customVarNameがsearchQueryの場合はhits.customVariables.customVarValueから派生します。productDetails:view_item_listイベントのitemsパラメータから読み取られる商品インプレッションは、hits.product.isImpressionsがTRUEの場合、hits.productから取得されます。
アップロードされたカタログとアナリティクス 360 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。
BigQuery テーブル プレビューの
hits.product.productSKU列の任意の商品 ID を使用して、アップロードしたカタログに同じ商品が含まれていることを確認するために、product.getメソッドを使用します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Search for commerce コンソールまたは userEvents.import メソッドを使用して、Google アナリティクス 360 のイベントをインポートできます。
コンソール
-
Search for commerce コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
REST
ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。
dataSchema の場合は、user_event_ga360 の値を使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'Java
アナリティクス 360 を BigQuery と統合して拡張 e コマースを使用している場合は、アナリティクス 360 のユーザー イベントをインポートできます。
BigQuery でアナリティクス 360 のホームページ ビューをインポートする
アナリティクス 360 では、ホームページ ビュー イベントは他のページビュー イベントと区別されません。つまり、アナリティクス 360 のイベントをインポートするでは、ホームページ ビュー イベントは、他のイベントタイプ(詳細ページビューなど)のイベントとしてインポートされません。
次の手順では、アナリティクス 360 のデータからホームページ ビュー イベントを抽出し、Vertex AI Search for Commerce にインポートする方法について説明します。これを行うには、ホームページのユーザーのビュー(ホームページのパスで識別)を新しい BigQuery テーブルに抽出してから、その新しいテーブルからコマース向け Vertex AI Search にデータをインポートします。
アナリティクス 360 から Vertex AI Search for Commerce のホームページ ビュー イベントをインポートするには:
BigQuery データセットを作成するか、テーブルを追加できる BigQuery データセットがあることを確認します。
このデータセットは、Vertex AI Search for Commerce のプロジェクトまたはアナリティクス 360 のデータが存在するプロジェクトに配置できます。これは、アナリティクス 360 のホームページ ビュー イベントをコピーするターゲット データセットです。
データセットに次のように BigQuery テーブルを作成します。
次の SQL コードの変数を次のように置き換えます。
target_project_id: 手順 1 のデータセットが存在するプロジェクト。
target_dataset: ステップ 1 のデータセット名。
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
SQL コードサンプルをコピーします。
Google Cloud コンソールで [BigQuery] ページを開きます。
まだ選択していない場合は、ターゲット プロジェクトを選択します。
[エディタ] ペインに、SQL コードサンプルを貼り付けます。
[ 実行] をクリックし、クエリの実行が完了するまで待ちます。
このコードを実行すると、
target_project_id:target_dataset.ga_homepage_YYYYMMDD形式のテーブルが作成されます(例、my-project:view_events.ga_homepage_20230115)。アナリティクス 360 のデータテーブルから、アナリティクス 360 のホームページ表示イベントを、前のステップ 2 で作成したテーブルにコピーします。
次の SQL サンプルコードの変数を次のように置き換えます。
source_project_id: BigQuery テーブルにアナリティクス 360 データを含むプロジェクトの ID。
source_dataset: BigQuery テーブルにアナリティクス 360 データを含むソース プロジェクトのデータセット。
source_table: アナリティクス 360 のデータを含むソース プロジェクトのテーブル。
target_project_id: 前の手順 2 と同じターゲット プロジェクト ID。
target_dataset: 前の手順と同じターゲット データセット。
path: ホームページへのパスです。通常、これは
/です。たとえば、ホームページがexample.com/の場合、ただし、ホームページがexamplepetstore.com/index.htmlのような場合は、パスは/index.htmlになります。
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
SQL コードサンプルをコピーします。
Google Cloud コンソールで [BigQuery] ページを開きます。
まだ選択していない場合は、ターゲット プロジェクトを選択します。
[エディタ] ペインに、SQL コードサンプルを貼り付けます。
[ 実行] をクリックし、クエリの実行が完了するまで待ちます。
BigQuery からユーザー イベントをインポートするの手順に沿って、ターゲット テーブルからホームページ ビューのイベントをインポートします。スキーマの選択中に、コンソールを使用してインポートする場合は、[小売ユーザー イベント スキーマ] を選択します。
userEvents.importを使用してインポートする場合は、dataSchema値にuser_eventを指定します。ステップ 1 と 2 で作成したテーブルとデータセットを削除します。
BigQuery で Google アナリティクス 4 のユーザー イベントをインポートする
Google アナリティクス 4 を BigQuery と統合して Google アナリティクスの e コマースを使用している場合は、Google アナリティクス 4 のユーザー イベントをインポートできます。
以下の手順は、BigQuery と Google アナリティクス 4 の使用に精通していることを前提とします。
始める前に
次の手順を開始する前に、以下の点をご確認ください。
- Google アナリティクスの e コマース を使用している。
- Google アナリティクス 4 に BigQuery がリンクされています。
データソースを確認する
ユーザー イベントデータがインポート用に準備されていることを確認するには、次の手順を行います。
Vertex AI Search for Commerce が使用する Google アナリティクス 4 フィールドと、それらがマッピングされる Vertex AI Search for Commerce のフィールドの表については、Google アナリティクス 4 のユーザー イベント フィールドをご覧ください。
Google アナリティクスのすべてのイベント パラメータについては、Google アナリティクス イベントのリファレンス ドキュメントをご覧ください。
インポートするユーザー イベントデータが、アクセス権のある BigQuery テーブルで正しくフォーマットされていることを確認してください。
- データセットは
analytics_PROPERTY_IDという名前である必要があります。 - テーブルは
events_YYYYMMDDという名前である必要があります。
テーブルの名前と形式の詳細については、Google アナリティクスのドキュメントをご覧ください。
- データセットは
BigQuery Google Cloud コンソールで、[エクスプローラ] パネルからデータセットを選択し、インポートするユーザー イベントのテーブルを見つけます。
以下を確認します。
event_params.key列にcurrencyキーがあり、関連付けられた文字列値が有効な通貨コードである。searchイベントをインポートする予定の場合は、event.event_params.key列にsearch_termキーおよび関連する値があることを確認します。Vertex AI Search for Commerce では、
searchQueryとproductDetailsの両方が 検索結果のリストを返す必要がありますが、Google アナリティクス 4 では、検索クエリと商品インプレッションの両方が 1 つのイベントに保存されません。Vertex AI Search for Commerce を機能させるには、データレイヤまたは JavaScript ピクセルでタグを作成して、Google アナリティクス ソースから両方のタイプのユーザー イベントをインポートできるようにする必要があります。searchQuery(search_termパラメータまたはview_search_resultsイベントから読み取られます)。productDetails:view_item_listイベントのitemsパラメータから読み取られる商品インプレッション。
Google アナリティクス 4 での
searchについての詳細は、Google アナリティクス ドキュメントのsearchをご覧ください。
アップロードされたカタログと Google アナリティクス 4 のユーザー イベント テーブルとのアイテム ID の整合性を確認します。
Google アナリティクス 4 のユーザー テーブルのプロダクトがアップロードされたカタログにも含まれるようにするには、BigQuery テーブル プレビューの
event.items.item_id列からプロダクト ID をコピーし、product.getメソッドを使用して、アップロードしたカタログに商品 ID があるかどうかを確認します。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
Google アナリティクス 4 のイベントをインポートする
Search for commerce コンソールまたは userEvents.import メソッドを使用して、Google アナリティクス 4 のイベントをインポートできます。
コンソールを使用する
-
Search for commerce コンソールの [データ] ページに移動します。
[データ] ページに移動 - [インポート] をクリックして [インポート データ] パネルを開きます。
- [User events] を選択します。
- データソースとして [BigQuery] を選択します。
-
データスキーマを選択します。
- Google アナリティクス 4: Google アナリティクス 4 のイベントに使用します。
- Google アナリティクス 360: Google アナリティクス 360 のイベントに使用します。ただし、Google アナリティクス 360 のホームページ ビューのみをインポートする場合は除きます。その場合は、Retail ユーザー イベント スキーマを使用します。
- Retail ユーザー イベント スキーマ: Google アナリティクス以外のソースからイベントをインポートする場合と、Google アナリティクス 360 のホームページ ビューのみをインポートする場合に使用します。
- データが配置される BigQuery テーブルを入力します。
- 省略可: データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定されていない場合、デフォルトのロケーションが使用されます。指定されている場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - 省略可: [詳細設定を表示] で、データの一時的なロケーションとして、プロジェクト内の Cloud Storage バケットのロケーションを入力します。
指定しない場合、デフォルトのロケーションが使用されます。指定する場合、BigQuery と Cloud Storage バケットは同じリージョン内に存在する必要があります。 - [インポート] をクリックします。
API を使用する
ユーザー イベントをインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。userEvents.import API リファレンスをご覧ください。
dataSchema の場合は、user_event_ga4 の値を使用します。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'インラインでユーザー イベントをインポートする
ユーザー イベントをインラインでインポートするには、userEvents.import メソッドの呼び出しにイベントのデータを含めます。
最も簡単な方法は、ユーザー イベントデータを JSON ファイルに追加し、ファイルを curl に提供することです。
ユーザー イベント タイプのフォーマットについては、ユーザー イベントについてをご覧ください。
curl
JSON ファイルを作成します。
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ \{ "<userEvent1>" \}, \{ "<userEvent2>" \}, \.... \] \} } }POST メソッドを呼び出します。
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
過去のカタログ データ
過去のユーザー イベントに表示されるカタログ データをインポートすることもできます。このカタログ データは、過去の商品情報を使用してユーザー イベントのキャプチャを強化し、モデルの精度を向上させることができるため、役立ちます。
詳しくは、過去のカタログ データをインポートするをご覧ください。
インポートしたイベントを表示する
Search for commerce コンソールの [データ] ページの [イベント] タブでイベント統合指標を表示します。このページには、去年に書き込みまたはインポートされたすべてのイベントが表示されます。データの取り込みが成功した後、指標が表示されるまでには、最長で 24 時間かかることがあります。
A/B テストの評価
テストの目標に応じて、A/B テストには次のパラメータが適用されます。
クリック率(CTR)目標の場合は、少なくとも 21 日間のユーザー イベントまたは特定のイベント数が必要です。たとえば、検索イベントが 200 万件以上、検索クリック数が 50 万件以上の場合です。
コンバージョン率(CVR)または収益の目標を設定する場合は、28 日以上のユーザー イベントまたは特定のイベント数が必要です。たとえば、検索イベント数が 400 万件超、検索クリック数が 100 万件超、検索可能な商品あたりの購入イベント数が 0.5 超などです。
A/B テストとベスト プラクティスの詳細については、A/B テストのページをご覧ください。
次のステップ
- ユーザー イベントの記録を開始する。
- ユーザー イベントを管理する。