Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1
本教程介绍如何使用 Cloud Composer 创建 Apache Airflow DAG。该 DAG 会联接来自 BigQuery 公共数据集和存储在 Cloud Storage 存储桶中的 CSV 文件的数据,然后运行 Managed Service for Apache Spark 批量作业来处理联接的数据。
本教程中的 BigQuery 公共数据集是 ghcn_d,这是一个全球气候汇总集成数据库。CSV 文件包含 1997 年至 2021 年美国节假日的日期和名称信息 。
我们希望使用 DAG 回答的问题是:“过去 25 年来,芝加哥感恩节有多温暖?”
目标
- 在默认配置中创建一个 Cloud Composer 环境
- 创建一个空的 BigQuery 数据集
- 创建一个新的 Cloud Storage 存储桶
- 创建并运行一个包含以下任务的 DAG:
- 将外部数据集从 Cloud Storage 加载到 BigQuery
- 在 BigQuery 中联接两个数据集
- 运行数据分析 PySpark 作业
准备工作
启用 API
启用以下 API:
控制台
启用 Managed Service for Apache Spark、Cloud Composer、BigQuery、Cloud Storage API。
启用 API 所需的角色
如需启用 API,您需要拥有 Service Usage Admin IAM 角色 (roles/serviceusage.serviceUsageAdmin),该角色包含 serviceusage.services.enable 权限。了解如何授予
角色。
gcloud
启用 Managed Service for Apache Spark、Cloud Composer、BigQuery、Cloud Storage API:
启用 API 所需的角色
如需启用 API,您需要拥有 Service Usage Admin IAM
角色 (roles/serviceusage.serviceUsageAdmin),该角色包含
serviceusage.services.enable 权限。了解如何授予
角色。
gcloud services enable dataproc.googleapis.comcomposer.googleapis.com bigquery.googleapis.com storage.googleapis.com
授予权限
向您的用户账号授予以下角色和权限:
授予用于管理 Cloud Composer 环境和环境存储分区的角色。
授予 BigQuery Data Owner (
roles/bigquery.dataOwner) 角色以 创建 BigQuery 数据集。授予 Storage Admin (
roles/storage.admin) 角色以 创建 Cloud Storage 存储桶。
创建并准备 Cloud Composer 环境
-
- 选择美国境内的区域。
- 选择最新 Cloud Composer 版本。
向 Cloud Composer 环境中使用的服务帐号授予以下角色,以便 Airflow 工作器成功运行 DAG 任务:
- BigQuery User (
roles/bigquery.user) - BigQuery Data Owner (
roles/bigquery.dataOwner) - Service Account User (
roles/iam.serviceAccountUser) - Dataproc Editor (
roles/dataproc.editor) - Dataproc Worker (
roles/dataproc.worker)
- BigQuery User (
创建相关资源
创建一个空的 BigQuery 数据集 使用以下参数:
- 名称:
holiday_weather - 区域:
US
- 名称:
创建一个新的 Cloud Storage 存储桶 在
US多区域中。运行以下命令,在您想要运行 Managed Service for Apache Spark 的区域中的默认子网上 启用专用 Google 访问通道 ,以满足 网络要求。我们建议您使用与 Cloud Composer 环境相同的区域。
gcloud compute networks subnets update default \ --region DATAPROC_SERVERLESS_REGION \ --enable-private-ip-google-access
使用 Managed Service for Apache Spark 进行数据处理
探索示例 PySpark 作业
以下代码是一个示例 PySpark 作业,用于将温度从摄氏度十分之一转换为摄氏度。此作业会将数据集中的温度数据转换为不同的格式。
将支持文件上传到 Cloud Storage
如需上传 PySpark 文件和存储在 holidays.csv 中的数据集,请执行以下操作:
将 data_analytics_process.py 保存到本地机器。
将 holidays.csv 保存到本地机器。
在 Google Cloud 控制台中,前往 Cloud Storage 浏览器 页面:
点击您之前创建的存储桶的名称。
在存储桶的对象 标签页中,点击上传文件 按钮,在随即显示的对话框中选择
data_analytics_process.py和holidays.csv,然后点击打开 。
数据分析 DAG
探索示例 DAG
该 DAG 使用多个运算符来转换和统一数据:
GCSToBigQueryOperator会将 holidays.csv 文件从 Cloud Storage 提取到您之前创建的 BigQueryholidays_weather数据集中的新表。The
DataprocCreateBatchOperator使用 Managed Service for Apache Spark 创建并运行 PySpark 批量作业。BigQueryInsertJobOperator会将 holidays.csv 中“Date”列的数据与 BigQuery 公共数据集 ghcn_d 中的天气数据联接。BigQueryInsertJobOperator任务是 使用 for 循环动态生成的,这些任务位于TaskGroup中,以便在 Airflow 界面的 Graph View 中获得更好的可读性。
使用 Airflow 界面添加变量
在 Airflow 中, 变量 是一种通用方式,用于将任意设置或 配置存储为简单的键值存储并从中检索。此 DAG 使用 Airflow 变量来存储常见值。如需将它们添加到您的环境中,请执行以下操作:
前往管理员 > 变量。
添加以下变量:
gcp_project:您的项目 ID。gcs_bucket:您之前创建的存储桶的名称(不带gs://前缀)。gce_region:您希望您的 Managed Service for Apache Spark 作业满足 Managed Service for Apache Spark 网络要求的区域。 这是您之前启用专用 Google 访问通道的区域。dataproc_service_account:Cloud Composer 环境的服务帐号。您可以在 Cloud Composer 环境的环境配置标签页中找到此服务账号。
将 DAG 上传到环境的存储桶
Cloud Composer 会安排位于环境的存储桶中的 /dags 文件夹中的 DAG。如需使用
Google Cloud 控制台上传 DAG,请执行以下操作:
在本地机器上,保存 data_analytics_dag.py。
在 Google Cloud 控制台中,前往环境 页面。
在环境列表中,点击 DAG 文件夹 列中的 DAG 链接。系统会打开您环境的 DAG 文件夹。
点击上传文件 。
在本地机器上选择
data_analytics_dag.py,然后点击打开 。
触发 DAG
在 Cloud Composer 环境中,点击 DAG 标签页。
点击 DAG ID
data_analytics_dag。点击触发 DAG 。
等待大约 5 到 10 分钟,直到看到绿色对勾,表示任务已成功完成。
验证 DAG 是否成功
在 Google Cloud 控制台中,前往 BigQuery 页面。
在浏览器 面板中,点击您的项目名称。
点击
holidays_weather_joined。点击“预览”以查看结果表。请注意,值列中的数字以摄氏度十分之一为单位。
点击
holidays_weather_normalized。点击“预览”以查看结果表。请注意,值列中的数字以摄氏度为单位。
使用 Managed Service for Apache Spark 深入了解(可选)
您可以尝试使用更复杂的 PySpark 数据处理流程的此 DAG 的高级版本。请参阅 GitHub 上的 Data Analytics Example 的 Managed Service for Apache Spark 扩展程序 。
清理
删除您为本教程创建的各个资源:
删除 Cloud Storage 存储桶,该存储分区是您 为本教程创建的。
删除 Cloud Composer 环境,包括 手动删除环境的存储桶。