本页面介绍如何将过往事件的用户事件数据批量导入 Vertex AI Search for commerce。训练模型需要用户事件数据。设置实时事件记录后,可能需要相当长的时间记录足够的用户事件数据来训练模型。导入历史数据可以加快这一过程。
此页面上的导入过程同时适用于推荐和搜索。导入数据后,这两项服务都可以使用这些事件,因此如果同时使用这两种服务,则无需两次导入相同的数据。
您可以从以下来源导入活动:
- Cloud Storage。
- BigQuery。
- Google Analytics 360 事件的 BigQuery。
- 适用于 Google Analytics 4 事件的 BigQuery。
- 使用
userEvents.import方法以内嵌方式导入事件。
准备工作
为避免导入错误并验证是否有足够的数据来生成良好的结果,请在导入用户事件之前查看以下信息。
查看记录用户事件的最佳做法。
用户事件格式因用户事件类型而异。如需了解为每种事件类型创建表时要指定的格式,请参阅用户事件类型和示例架构。
建议和搜索功能的数据要求不同。确保您的用户事件符合您计划使用的服务的要求:
请参阅用户事件要求和最佳实践,了解搜索和推荐要求。
如果您使用的是推荐模型,另请参阅用户事件数据要求,其中根据您计划使用的推荐模型类型和优化目标列出了其他要求。
事件导入注意事项
本部分介绍了可用于批量导入历史用户事件的方法、何时可以使用每种方法,以及这些方法的一些限制。
| 导入来源 | 说明 | 何时使用 | 限制 |
|---|---|---|---|
| Cloud Storage |
使用 Google Cloud 控制台或 curl 从文件(≤ 2 GB,最多 100 个)导入 JSON 数据。支持自定义属性。
|
在单个步骤中加载大量数据。 | GA 数据需要先导出到 BigQuery, 然后再转移到 Cloud Storage。 |
| BigQuery |
使用 Google Cloud 控制台或 curl,按照 Vertex AI Search 商务解决方案架构从 BigQuery 表中导入数据。
|
在导入之前预处理或分析事件数据。 | 需要手动进行架构映射;对于大量事件,资源成本较高。 |
| BigQuery + Google Analytics 360 | 将现有的 Google Analytics 360 数据直接导入 Vertex AI Search for commerce。 | 现有的 GA360 转化跟踪;无需手动进行架构映射。 | 可用的属性子集有限;搜索需要进行 Google Analytics 展示跟踪。 |
| BigQuery + Google Analytics 4 | 将现有的 Google Analytics 4 数据直接导入 Vertex AI Search for commerce。 | 现有的 GA4 转化跟踪;无需手动进行架构映射。 |
可用的属性子集有限;搜索需要 search_query 事件参数键。
|
| 内嵌导入 |
通过直接 userEvents.import 方法调用进行导入。
|
高隐私权后端身份验证要求。 | 实施过程比基于网络的标准导入更复杂。 |
大小限制
系统对用户事件的总数限制为 400 亿。根据数据注入平台,数据导入存在以下规模限制:
从 Cloud Storage 批量导入数据时,每个文件的大小不能超过 2 GB,并且您可以在单个批量导入请求中包含最多 100 个文件。
对于 BigQuery 导入,大小限制为 128 GB。
对于内嵌导入,建议每个请求最多导入 10,000 个用户事件。
对于模型训练和搜索优化,记录实时用户事件或导入历史用户事件的最低天数,请执行模型训练和调整。初始模型训练和调整可能需要 2 到 5 天,如果数据集较大,则需要更长时间。
将搜索事件与用户互动相关联
如需启用以创收为目标的排名(第 3 级)和个性化(第 4 级),仅上传常规 search 事件是不够的。Vertex AI Search 模型需要强烈的用户意图和满意度信号,才能了解哪些产品在特定查询中表现良好。此信号由可归因的用户互动提供。您必须上传后续事件,即 detail-page-view、add-to-cart 和 purchase-complete。
用户互动的重要性
- 相关性信号:
search事件会告知模型用户想要什么。detail-page-view(点击)会告知模型哪个结果相关。 - 收入信号:
add-to-cart和purchase-complete事件会告知模型哪些结果能带来实际的商业价值。
用于优化的数据质量阈值
若要启用收入优化模型,您的数据必须达到特定的数量和质量阈值。
以下指标是必需的:
| 指标 | 要求 | 上下文 |
|---|---|---|
| 可归因的点击量 |
过去 30 天内有 25 万个detail-page-view事件
|
这些链接必须通过有效的用户互动与搜索结果相关联。 |
| 搜索事件量 | 过去 90 天内有 2,000,000 个事件 | 需要有大量的历史搜索流量基准才能实现统计显著性。 |
| 点击密度 |
每个产品平均有 10 个 detail-page-view 事件
|
确保模型在整个商品目录(过去 30 天内)中具有足够的信号覆盖率。 |
| 转化信号 |
每件商品的平均 0.5 个 add-to-cart 事件
|
建议充分利用可最大限度提高收入的目标。 |
| 价格覆盖率 | 95% 的搜索商品有价格 | 如果模型不知道退回商品的价格,就无法针对收入进行优化。 |
如需了解详情,请参阅数据质量页面。
使用 BigQuery 或 Cloud Storage 进行批量导入
将 BigQuery 或 Cloud Storage 用作 Vertex AI Search for Commerce 中用户事件数据的临时存储区具有以下明显优势:
增强的恢复能力:将事件存储在 BigQuery 或 Cloud Storage 中可提供可靠的备份机制,以便在必要时进行清除和重新提取。这种恢复能力可防范数据丢失,并在出现错误或不一致情况时简化恢复流程。导入方法还具有内置的恢复能力,可将未提取的事件存储在错误存储分区中,并附带错误详情。
就地自定义分析:由于可以在 BigQuery 中轻松访问事件,因此可以直接对用户事件数据执行自定义分析,而无需执行额外的数据导出或转移流程。这有助于实现分析工作流和实时数据分析。
使用现有事件:批量导入可以使用以各种格式收集的现有用户事件数据。通过简单的提取、转换和加载 (ETL) 流程,即可将这些数据转换为 Vertex AI Search for Commerce 格式,无需进行大规模前端更改或复杂的集成。
批量导入的潜在缺点包括:
实时个性化受限:实时个性化功能受批量导入频率的限制。事件生成与提取之间的时间延迟可能会影响个性化搜索结果的响应速度。
KPI 衡量和错误报告速度较慢:与实时流式传输相比,批量导入会因流程的批处理特性而导致 KPI 衡量和错误报告出现延迟。这可能会妨碍您及时应对新出现的趋势或问题。
ETL 流水线基础架构:与实时流式传输相比,ETL 流水线需要构建并监控故障。还需要实现一种机制,用于在修复后重试导入失败的事件。实现此功能可能需要一些初始开发工作。
了解这些权衡取舍有助于您在 Vertex AI Search for commerce 中为特定应用场景和优先级选择最合适的用户事件注入方法。
从 Cloud Storage 导入用户事件
使用 Google Cloud 控制台或 userEvents.import 方法从 Cloud Storage 导入用户事件。
控制台
-
前往 Search for Commerce 控制台中的数据页面。
前往“数据”页面 - 点击导入以打开导入数据面板。
- 选择用户事件。
- 选择 Google Cloud Storage 作为数据源。
- 选择零售用户事件架构作为架构。
- 输入数据的 Cloud Storage 位置。
- 点击导入。
curl
使用 userEvents.import 方法导入用户事件。
为导入作业的输入参数创建一个数据文件。您可以使用
GcsSource对象指向您的 Cloud Storage 存储桶。您可以提供多个文件,也可以只提供一个。
- INPUT_FILE:Cloud Storage 中包含您的用户事件数据的文件。如需查看每种用户事件类型格式的示例,请参阅用户事件简介。确保每个用户事件都位于单独的一行,没有换行符。
- ERROR_DIRECTORY:存放与导入有关的错误信息的 Cloud Storage 目录。
输入文件字段必须采用
gs://<bucket>/<path-to-file>/格式。错误目录必须采用gs://<bucket>/<folder>/格式。如果错误目录不存在,Vertex AI Search for commerce 会创建它。存储桶必须已存在。{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"], }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
向
userEvents:importREST 方法发出POST请求,并提供数据文件的名称,以导入您的目录信息。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl -X POST \ -v \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ --data @./DATA_FILE.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" } }'
从 BigQuery 导入用户事件
使用 Google Cloud 控制台或 userEvents.import 方法从 BigQuery 导入用户事件。
设置 BigQuery 访问权限
按照设置对 BigQuery 数据集的访问权限中的说明,为您的 Vertex AI Search for commerce 服务账号授予成功导入所需的最低 BigQuery User 角色,以及 BigQuery 数据集的其他 BigQuery Data Editor 角色。BigQuery Data Owner 角色是不必要的。
从 BigQuery 导入用户事件
您可以使用 Search for Commerce 控制台或 userEvents.import 方法导入用户事件。
控制台
-
前往 Search for Commerce 控制台中的数据页面。
前往“数据”页面 - 点击导入以打开导入数据面板。
- 选择用户事件。
- 选择 BigQuery 作为数据源。
-
选择数据架构。
- Google Analytics 4:用于 Google Analytics 4 事件。
- Google Analytics 360:用于 Google Analytics 360 事件,除非您仅从 Google Analytics 360 导入首页浏览事件(在这种情况下,请使用零售用户事件架构)。
- 零售用户事件架构:用于从 Google Analytics 以外的来源导入事件,以及仅从 Google Analytics 360 导入首页浏览事件。
- 输入数据所在的 BigQuery 表格。
- 可选:输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,系统会使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 可选:在显示高级选项下,输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,则使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 点击导入。
curl
通过在调用 userEvents.import 方法时添加事件数据,导入用户事件。请参阅 userEvents.import API 参考文档。
您为 dataSchema 指定的值取决于您要导入的内容:
user_event_ga4:用于 Google Analytics 4 事件。user_event_ga360:用于 Google Analytics 360 事件,除非您仅从 Google Analytics 360 导入首页浏览(在这种情况下,请使用user_event)。user_event:用于从 Google Analytics 以外的来源导入事件,以及仅从 Google Analytics 360 导入首页浏览事件。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "SCHEMA_TYPE"
}
}
}'使用 BigQuery 导入 Google Analytics 360 用户事件
以下过程假设您熟悉 BigQuery 和 Analytics 360 的使用。
准备工作
在开始后续步骤之前,请确保:
- 您使用的是增强型电子商务。
- 您已将 BigQuery 关联到 Analytics 360。
查看数据源
确保您要导入的用户事件数据在您有权访问的 BigQuery 表中已正确设置了格式。
确保该表的名称为
project_id:ga360_export_dataset.ga_sessions_YYYYMMDD。请参阅 Google Analytics 文档,详细了解该表的格式和命名。
在 BigQuery Google Cloud 控制台中,从探索器面板中选择表以预览表。
请检查:
clientId列具有有效值,例如123456789.123456789。请注意,该值与完整的 _ga Cookie 值(格式类似于
GA1.3.123456789.123456789)不同。hits.transaction.currencyCode列具有有效的货币代码。如果您打算导入
search事件,请检查hits.page.searchKeyword或hits.customVariable.searchQuery列是否存在。虽然 Vertex AI Search 商务解决方案需要同时提供
searchQuery和productDetails才能返回搜索结果列表,但 Analytics 360 不会将搜索查询和商品展示次数同时存储在一个事件中。为了使 Vertex AI Search for Commerce 正常运行,您需要在数据层创建一个代码或 JavaScript 像素,以便能够从 Google Analytics 来源导入以下两种类型的用户事件:searchQuery(从search_term参数或view_search_results事件中读取)派生自hits.page.searchKeyword或hits.customVariables.customVarValue(如果hits.customVariables.customVarName为searchQuery)。productDetails,即从view_item_list事件的items参数中读取的产品展示,如果hits.product.isImpressions为TRUE,则从hits.product中获取。
检查上传的目录与 Analytics 360 用户事件表之间的项 ID 一致性。
使用 BigQuery 表预览的
hits.product.productSKU列中的任意产品 ID 和product.get方法,确保您上传的目录中有相同的产品。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
您可以使用“搜索广告购物”控制台或 userEvents.import 方法导入 Google Analytics 360 事件。
控制台
-
前往 Search for Commerce 控制台中的数据页面。
前往“数据”页面 - 点击导入以打开导入数据面板。
- 选择用户事件。
- 选择 BigQuery 作为数据源。
-
选择数据架构。
- Google Analytics 4:用于 Google Analytics 4 事件。
- Google Analytics 360:用于 Google Analytics 360 事件,除非您仅从 Google Analytics 360 导入首页浏览事件(在这种情况下,请使用零售用户事件架构)。
- 零售用户事件架构:用于从 Google Analytics 以外的来源导入事件,以及仅从 Google Analytics 360 导入首页浏览事件。
- 输入数据所在的 BigQuery 表格。
- 可选:输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,系统会使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 可选:在显示高级选项下,输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,则使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 点击导入。
REST
通过在调用 userEvents.import 方法时添加事件数据,导入用户事件。
对于 dataSchema,请使用值 user_event_ga360。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"datasetId": "some_ga360_export_dataset",
"tableId": "ga_sessions_YYYYMMDD",
"dataSchema": "user_event_ga360"
}
}
}'Java
如果您已将 Google Analytics 360 与 BigQuery 集成并使用增强型电子商务功能,则可以导入 Google Analytics 360 用户事件。
使用 BigQuery 导入 Analytics 360 首页浏览
在 Analytics 360 中,首页浏览事件与其他网页浏览事件没有区别。这意味着,在导入 Analytics 360 事件中,首页浏览事件不会像其他事件类型(例如详情页浏览)那样作为事件导入。
以下步骤介绍了如何从 Analytics 360 数据中提取首页浏览事件,并将其导入到 Vertex AI Search for commerce 中。简而言之,此过程包括将用户对首页(由首页路径标识)的查看情况提取到新的 BigQuery 表中,然后将该新表中的数据导入到 Vertex AI Search 商务解决方案中。
如需将首页浏览事件从 Analytics 360 导入到 Vertex AI Search 商务解决方案,请执行以下操作:
创建 BigQuery 数据集,或确保您有一个可向其中添加表的 BigQuery 数据集。
此数据集可以位于您的 Vertex AI Search for commerce 项目中,也可以位于包含 Analytics 360 数据的项目中。这是您要将 Analytics 360 首页查看事件复制到的目标数据集。
在数据集中创建 BigQuery 表,如下所示:
将以下 SQL 代码中的变量替换为以下值。
target_project_id:第 1 步中的数据集所在的项目。
target_dataset:第 1 步中的数据集名称。
CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage ( eventType STRING NOT NULL, visitorId STRING NOT NULL, userId STRING, eventTime STRING NOT NULL );
复制 SQL 代码示例。
在 Google Cloud 控制台中打开 BigQuery 页面。
如果尚未选择,请选择目标项目。
在编辑器窗格中,粘贴 SQL 代码示例。
点击 Run(运行),然后等待查询完成运行。
运行此代码会创建一个格式为
target_project_id:target_dataset.ga_homepage_YYYYMMDD的表,例如my-project:view_events.ga_homepage_20230115。将 Analytics 360 数据表中的 Analytics 360 首页浏览事件复制到上一步 2 中创建的表中。
替换以下 SQL 示例代码中的变量,如下所示:
source_project_id:包含 BigQuery 表格中的 Analytics 360 数据的项目的 ID。
source_dataset:源项目中的数据集,其中包含 BigQuery 表中的 Analytics 360 数据。
source_table:源项目中包含 Google Analytics 360 数据的表。
target_project_id:与上一步(步骤 2)中的目标项目 ID 相同。
target_dataset:与上一步中的目标数据集相同。
path:这是首页的路径。通常,此值为
/,例如,如果首页为example.com/。不过,如果首页类似于examplepetstore.com/index.html,则路径为/index.html。
INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)` SELECT "home-page-view" as eventType, clientId as visitorId, userId, CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime FROM `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
复制 SQL 代码示例。
在 Google Cloud 控制台中打开 BigQuery 页面。
如果尚未选择,请选择目标项目。
在编辑器窗格中,粘贴 SQL 代码示例。
点击 Run(运行),然后等待查询完成运行。
按照从 BigQuery 导入用户事件中的说明,从目标表中导入首页浏览事件。在选择架构期间,如果您使用控制台导入,请选择零售用户事件架构;如果您使用
userEvents.import导入,请为dataSchema值指定user_event。删除您在第 1 步和第 2 步中创建的表和数据集。
使用 BigQuery 导入 Google Analytics 4 用户事件
如果您已将 Google Analytics 4 与 BigQuery 集成并使用 Google Analytics 电子商务,则可以导入 Google Analytics 4 用户事件。
以下过程假设您熟悉 BigQuery 和 Google Analytics 4 的使用。
准备工作
在开始后续步骤之前,请确保:
- 您使用的是 Google Analytics 电子商务。
- 您已将 BigQuery 关联到 Google Analytics 4。
查看数据源
为确保您的用户事件数据已准备好可供导入,请按照以下步骤操作。
如需查看 Vertex AI Search 商务解决方案使用的 Google Analytics 4 字段以及它们映射到的 Vertex AI Search 商务解决方案字段的表格,请参阅 Google Analytics 4 用户事件字段。
如需查看所有 Google Analytics 事件参数,请参阅 Google Analytics 事件参考文档。
确保您要导入的用户事件数据在您有权访问的 BigQuery 表中已正确设置了格式。
- 数据集应命名为
analytics_PROPERTY_ID。 - 该表应命名为
events_YYYYMMDD。
如需了解表名称和格式,请参阅 Google Analytics 文档。
- 数据集应命名为
在 BigQuery Google Cloud 控制台中,从探索器面板中选择数据集,然后找到您计划导入的用户事件表。
请检查:
event_params.key列具有currency键,并且其关联的字符串值是有效的币种代码。如果您打算导入
search事件,请检查event.event_params.key列是否包含search_term键和关联的值。虽然 Vertex AI Search 商务解决方案需要同时提供
searchQuery和productDetails才能返回搜索结果列表,但 Google Analytics 4 不会将搜索查询和产品展示次数同时存储在一个事件中。为了使 Vertex AI Search for Commerce 正常运行,您需要在数据层或通过 JavaScript Pixel 创建代码,以便能够从 Google Analytics 来源导入以下两种类型的用户事件:searchQuery,该值从search_term参数或view_search_results事件中读取。productDetails,即从view_item_list事件的items参数中读取的产品展示。
如需了解 Google Analytics 4 中的
search,请参阅 Google Analytics 文档中的search。
检查上传的目录与 Google Analytics 4 用户事件表之间的商品 ID 一致性。
为确保 Google Analytics 4 用户表中的产品也位于您上传的目录中,请从 BigQuery 表预览的
event.items.item_id列中复制一个产品 ID,然后使用product.get方法检查该产品 ID 是否位于您上传的目录中。export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json curl \ -v \ -X GET \ -H "Content-Type: application/json; charset=utf-8" \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
导入 Google Analytics 4 事件
您可以使用“面向商业的搜索”控制台或 userEvents.import 方法导入 Google Analytics 4 事件。
使用控制台
-
前往 Search for Commerce 控制台中的数据页面。
前往“数据”页面 - 点击导入以打开导入数据面板。
- 选择用户事件。
- 选择 BigQuery 作为数据源。
-
选择数据架构。
- Google Analytics 4:用于 Google Analytics 4 事件。
- Google Analytics 360:用于 Google Analytics 360 事件,除非您仅从 Google Analytics 360 导入首页浏览事件(在这种情况下,请使用零售用户事件架构)。
- 零售用户事件架构:用于从 Google Analytics 以外的来源导入事件,以及仅从 Google Analytics 360 导入首页浏览事件。
- 输入数据所在的 BigQuery 表格。
- 可选:输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,系统会使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 可选:在显示高级选项下,输入项目中 Cloud Storage 存储桶的位置作为数据的临时位置。
如果未指定,则使用默认位置。如果指定,BigQuery 和 Cloud Storage 存储桶必须位于同一区域内。 - 点击导入。
使用 API
通过在调用 userEvents.import 方法时添加事件数据,导入用户事件。请参阅 userEvents.import API 参考文档。
对于 dataSchema,请使用值 user_event_ga4。
export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
-v \\
-X POST \\
-H "Content-Type: application/json; charset=utf-8" \\
-H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \\
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
--data '{
"inputConfig": {
"bigQuerySource": {
"projectId": "PROJECT_ID",
"datasetId": "DATASET_ID",
"tableId": "TABLE_ID",
"dataSchema": "user_event_ga4"
}
}
}'以内嵌方式导入用户事件
您可以通过在 userEvents.import 方法的调用中包含事件的数据来以内嵌方式导入用户事件。
最简单的方法是将用户事件数据放入 JSON 文件并将该文件提供给 curl。
如需了解用户事件类型的格式,请参阅用户事件简介。
curl
创建 JSON 文件:
{ "inputConfig": { "userEventInlineSource": { "userEvents": [ \{ "<userEvent1>" \}, \{ "<userEvent2>" \}, \.... \] \} } }调用 POST 方法:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
Java
历史目录数据
您还可以导入历史用户事件中显示的目录数据。此目录数据非常有用,因为过去的产品信息可用于丰富用户事件捕获,从而提高模型准确率。
如需了解详情,请参阅导入历史目录数据。
查看导入的活动
在 Search for Commerce 控制台数据页面的事件标签页中查看事件集成指标。此页面显示去年写入或导入的所有事件。成功数据注入后,指标最多可能需要 24 小时才会显示。
A/B 测试评估
以下参数适用于 A/B 测试,具体取决于您的测试目标:
对于以点击通过率 (CTR) 为目标的广告系列,您需要提供至少 21 天的用户事件,或者达到特定的事件量。例如,搜索事件超过 200 万次,搜索点击次数超过 50 万次。
对于以“提高转化率”或“提高收入”为目标的广告系列,您需要提供至少 28 天的用户事件数据,或者达到特定的事件量。例如,搜索事件超过 400 万次,搜索点击次数超过 100 万次,每个可搜索商品的购买事件超过 0.5 次。
如需详细了解 A/B 测试和最佳实践,请参阅 A/B 测试页面。