Oracle to BigQuery 模板是一种批处理流水线,可将 Oracle 表中的数据复制到现有 BigQuery 表。此流水线使用 JDBC 连接到 Oracle。为了增加一项保护措施,您还可以在传入使用 Cloud KMS 密钥加密的 Base64 编码用户名、密码和连接字符串参数的同时,传入该 Cloud KMS 密钥。如需详细了解如何对用户名、密码和连接字符串参数进行加密,请参阅 Cloud KMS API 加密端点。
流水线要求
- 在运行此流水线之前,BigQuery 表必须已存在。
- BigQuery 表必须具有兼容的架构。
- 必须能够从运行 Dataflow 的子网访问关系型数据库。
模板参数
必需参数
- driverJars:以英文逗号分隔的驱动程序 JAR 文件列表。例如
gs://your-bucket/driver_jar1.jar,gs://your-bucket/driver_jar2.jar。 - driverClassName:JDBC 驱动程序类名称。例如
com.mysql.jdbc.Driver。 - connectionURL:JDBC 连接网址字符串。例如
jdbc:mysql://some-host:3306/sampledb。您可以将此值作为使用 Cloud KMS 密钥加密,然后进行 Base64 编码的字符串传入。 从 Base64 编码的字符串中移除空白字符。 请注意 Oracle 非 RAC 数据库连接字符串 (jdbc:oracle:thin:@some-host:<port>:<sid>) 和 Oracle RAC 数据库连接字符串 (jdbc:oracle:thin:@//some-host[:<port>]/<service_name>) 之间的差异。例如:jdbc:mysql://some-host:3306/sampledb。 - outputTable:BigQuery 输出表位置。例如
<PROJECT_ID>:<DATASET_NAME>.<TABLE_NAME>。 - bigQueryLoadingTemporaryDirectory:BigQuery 加载进程的临时目录。例如
gs://your-bucket/your-files/temp_dir。
可选参数
- connectionProperties:要用于 JDBC 连接的属性字符串。字符串的格式必须为
[propertyName=property;]*。如需了解详情,请参阅 MySQL 文档中的“配置属性”部分 (https://dev.mysql.com/doc/connector-j/en/connector-j-reference-configuration-properties.html)。例如unicode=true;characterEncoding=UTF-8。 - username:要用于 JDBC 连接的用户名。可以作为使用 Cloud KMS 密钥加密的字符串传入,也可以是 Secret Manager Secret,格式为 projects/{project}/secrets/{secret}/versions/{secret_version}。
- password:要用于 JDBC 连接的密码。可以作为使用 Cloud KMS 密钥加密的字符串传入,也可以是 Secret Manager Secret,格式为 projects/{project}/secrets/{secret}/versions/{secret_version}。
- query:要在提取数据的来源上运行的查询。请注意,某些 JDBC SQL 类型和 BigQuery 类型虽然名称相同,但存在一些差异。需要注意的一些重要的 SQL -> BigQuery 类型映射为
DATETIME --> TIMESTAMP。如果您的架构不匹配,可能需要进行类型转换。例如select * from sampledb.sample_table。 - KMSEncryptionKey:要用于对用户名、密码和连接字符串进行解密的 Cloud KMS 加密密钥。如果您传入 Cloud KMS 密钥,则还必须对用户名、密码和连接字符串进行加密。例如
projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key。 - useColumnAlias:如果设置为
true,则流水线会使用列别名 (AS) 而不是列名称将行映射到 BigQuery。默认值为false。 - isTruncate:如果设置为
true,则流水线会在将数据加载到 BigQuery 之前截断。默认为false,这会导致流水线附加数据。 - partitionColumn:如果指定了
partitionColumn以及table,则 JdbcIO 使用范围对同一个表(子查询)执行多个查询实例来并行读取表。目前,支持Long和DateTime分区列。通过partitionColumnType传递列类型。 - partitionColumnType:
partitionColumn的类型,接受long或datetime。默认值为:long。 - table:使用分区时要读取的表。此参数还接受用英文括号括起的子查询。 例如
(select id, name from Person) as subq。 - numPartitions:分区的数量。使用下限和上限,此值会为生成的
WHERE子句表达式形成分区步长,这些表达式用于均匀拆分分区列。当输入小于1时,数字设置为1。 - lowerBound:要在分区方案中使用的下限。如果未提供,Apache Beam 会针对受支持的类型自动推断此值。
datetimepartitionColumnType 接受yyyy-MM-dd HH:mm:ss.SSSZ格式的下限。例如2024-02-20 07:55:45.000+03:30。 - upperBound:要在分区方案中使用的上限。如果未提供,Apache Beam 会针对受支持的类型自动推断此值。
datetimepartitionColumnType 接受yyyy-MM-dd HH:mm:ss.SSSZ格式的上限。例如2024-02-20 07:55:45.000+03:30。 - fetchSize:一次从数据库中提取的行数。不用于分区读取。默认值为 50000。
- createDisposition:要使用的 BigQuery CreateDisposition。例如
CREATE_IF_NEEDED或CREATE_NEVER。默认值为:CREATE_NEVER。 - bigQuerySchemaPath:BigQuery JSON 架构的 Cloud Storage 路径。如果
createDisposition设置为CREATE_IF_NEEDED,则必须指定此参数。例如gs://your-bucket/your-schema.json。 - outputDeadletterTable:未能到达输出表的消息的 BigQuery 表,格式为
"PROJECT_ID:DATASET_NAME.TABLE_NAME"。如果该表不存在,则系统会在流水线运行时创建该表。如果未指定此参数,流水线将在出现写入错误时失败。只有当useStorageWriteApi或useStorageWriteApiAtLeastOnce设置为 true 时,才能指定此参数。 - disabledAlgorithms:要停用的算法(以英文逗号分隔)。如果此值设置为
none,则不会停用任何算法。请谨慎使用此参数,因为默认停用的算法可能存在漏洞或性能问题。 例如SSLv3, RC4。 - extraFilesToStage:用于将文件暂存在工作器中的 Cloud Storage 路径或 Secret Manager 密文(以英文逗号分隔)。这些文件保存在每个工作器的 /extra_files 目录中。例如
gs://<BUCKET_NAME>/file.txt,projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<VERSION_ID>。 - useStorageWriteApi:如果为
true,则流水线使用 BigQuery Storage Write API (https://cloud.google.com/bigquery/docs/write-api)。默认值为false。如需了解详情,请参阅使用 Storage Write API (https://beam.apache.org/documentation/io/built-in/google-bigquery/#storage-write-api)。 - useStorageWriteApiAtLeastOnce:使用 Storage Write API 时,指定写入语义。如需使用“至少一次”语义 (https://beam.apache.org/documentation/io/built-in/google-bigquery/#at-least-once-semantics),请将此参数设置为
true。如需使用“正好一次”语义,请将参数设置为false。仅当useStorageWriteApi为true时,此参数才适用。默认值为false。
运行模板
控制台
- 转到 Dataflow 基于模板创建作业页面。 转到“基于模板创建作业”
- 在作业名称字段中,输入唯一的作业名称。
- 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为
us-central1。如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置。
- 从 Dataflow 模板下拉菜单中,选择 the Oracle to BigQuery template。
- 在提供的参数字段中,输入您的参数值。
- 点击运行作业。
gcloud CLI
在 shell 或终端中,运行模板:
gcloud dataflow flex-template run JOB_NAME \ --project=PROJECT_ID \ --region=REGION_NAME \ --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/Oracle_to_BigQuery \ --parameters \ connectionURL=JDBC_CONNECTION_URL,\ query=SOURCE_SQL_QUERY,\ outputTable=PROJECT_ID:DATASET.TABLE_NAME, bigQueryLoadingTemporaryDirectory=PATH_TO_TEMP_DIR_ON_GCS,\ connectionProperties=CONNECTION_PROPERTIES,\ username=CONNECTION_USERNAME,\ password=CONNECTION_PASSWORD,\ KMSEncryptionKey=KMS_ENCRYPTION_KEY
替换以下内容:
JOB_NAME:您选择的唯一性作业名称VERSION:您要使用的模板的版本您可使用以下值:
latest,以使用模板的最新版本,该模板在存储桶的未标示日期的父文件夹 (gs://dataflow-templates-REGION_NAME/latest/) 中可用- 版本名称(如
2023-09-12-00_RC00),以使用模板的特定版本,该版本嵌套在存储桶的相应日期父文件夹 (gs://dataflow-templates-REGION_NAME/) 中
REGION_NAME:要在其中部署 Dataflow 作业的区域,例如us-central1JDBC_CONNECTION_URL:JDBC 连接网址SOURCE_SQL_QUERY:需要在源数据库上运行的 SQL 查询DATASET:您的 BigQuery 数据集TABLE_NAME:您的 BigQuery 表名称PATH_TO_TEMP_DIR_ON_GCS:临时目录的 Cloud Storage 路径CONNECTION_PROPERTIES:JDBC 连接属性(如有需要)CONNECTION_USERNAME:JDBC 连接用户名CONNECTION_PASSWORD:JDBC 连接密码KMS_ENCRYPTION_KEY:Cloud KMS 加密密钥
API
如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch。
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch { "jobName": "JOB_NAME", "parameters": { "connectionURL": "JDBC_CONNECTION_URL", "query": "SOURCE_SQL_QUERY", "outputTable": "PROJECT_ID:DATASET.TABLE_NAME", "bigQueryLoadingTemporaryDirectory": "PATH_TO_TEMP_DIR_ON_GCS", "connectionProperties": "CONNECTION_PROPERTIES", "username": "CONNECTION_USERNAME", "password": "CONNECTION_PASSWORD", "KMSEncryptionKey":"KMS_ENCRYPTION_KEY" }, "environment": { "zone": "us-central1-f" } }
替换以下内容:
PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目 IDJOB_NAME:您选择的唯一性作业名称VERSION:您要使用的模板的版本您可使用以下值:
latest,以使用模板的最新版本,该模板在存储桶的未标示日期的父文件夹 (gs://dataflow-templates-REGION_NAME/latest/) 中可用- 版本名称(如
2023-09-12-00_RC00),以使用模板的特定版本,该版本嵌套在存储桶的相应日期父文件夹 (gs://dataflow-templates-REGION_NAME/) 中
LOCATION:要在其中部署 Dataflow 作业的区域,例如us-central1JDBC_CONNECTION_URL:JDBC 连接网址SOURCE_SQL_QUERY:需要在源数据库上运行的 SQL 查询DATASET:您的 BigQuery 数据集TABLE_NAME:您的 BigQuery 表名称PATH_TO_TEMP_DIR_ON_GCS:临时目录的 Cloud Storage 路径CONNECTION_PROPERTIES:JDBC 连接属性(如有需要)CONNECTION_USERNAME:JDBC 连接用户名CONNECTION_PASSWORD:JDBC 连接密码KMS_ENCRYPTION_KEY:Cloud KMS 加密密钥