BigQuery aloja varios conjuntos de datos públicos que están disponibles para que el público en general los consulte. En este tutorial, crearás un flujo de trabajo que ejecuta varias tareas de consulta de BigQuery en paralelo, lo que demuestra una mejora del rendimiento en comparación con la ejecución de las tareas de forma secuencial, una después de otra.
Ejecutar una tarea de consulta de BigQuery
En BigQuery, puedes ejecutar una tarea de consulta interactiva (bajo demanda). Para obtener más información, consulta Ejecutar tareas de consulta interactivas y por lotes.
Consola
En la Google Cloud consola, ve a la página BigQuery.
Introduce la siguiente consulta de SQL de BigQuery en el área de texto Editor de consultas:
SELECT TITLE, SUM(views) FROM `bigquery-samples.wikipedia_pageviews.201207h` GROUP BY TITLE ORDER BY SUM(views) DESC LIMIT 100
Haz clic en Ejecutar.
bq
En el terminal, introduce el siguiente comando bq query
para ejecutar una consulta interactiva con la sintaxis de SQL estándar:
bq query \
--use_legacy_sql=false \
'SELECT
TITLE, SUM(views)
FROM
`bigquery-samples.wikipedia_pageviews.201207h`
GROUP BY
TITLE
ORDER BY
SUM(views) DESC
LIMIT 100'
Ejecuta una consulta que devuelve los 100 títulos de Wikipedia con más vistas en un mes concreto y escribe el resultado en una tabla temporal.
Anota cuánto tiempo tarda en ejecutarse la consulta.
Desplegar un flujo de trabajo que ejecute varias consultas de forma secuencial
Una definición de flujo de trabajo se compone de una serie de pasos descritos mediante la sintaxis de Workflows. Después de crear un flujo de trabajo, debes implementarlo para que se pueda ejecutar. El paso de implementación también valida que el archivo de origen se puede ejecutar.
El siguiente flujo de trabajo define una lista de cinco tablas en las que se va a ejecutar una consulta mediante el conector de BigQuery de Workflows. Las consultas se ejecutan de forma secuencial, una tras otra, y los títulos más vistos de cada tabla se guardan en un mapa de resultados.
Consola
En la Google Cloud consola, ve a la página Flujos de trabajo:
Haz clic en Crear.
Escribe un nombre para el nuevo flujo de trabajo, como
workflow-serial-bqjobs
.Elige una región adecuada, como us-central1.
Selecciona la cuenta de servicio que has creado anteriormente.
Ya deberías haber asignado los roles de gestión de identidades y accesos BigQuery > Usuario de tareas de BigQuery y Logging > Escritor de registros a la cuenta de servicio.
Haz clic en Siguiente.
En el editor del flujo de trabajo, introduce la siguiente definición para tu flujo de trabajo:
Haz clic en Desplegar.
gcloud
Abre un terminal y crea un archivo de código fuente para tu flujo de trabajo:
touch workflow-serial-bqjobs.yaml
Copia el siguiente flujo de trabajo en tu archivo de código fuente:
Para desplegar el flujo de trabajo, introduce el siguiente comando:
gcloud workflows deploy workflow-serial-bqjobs \ --source=workflow-serial-bqjobs.yaml \ --service-account=MY_SERVICE_ACCOUNT@MY_PROJECT.iam.gserviceaccount.com
Sustituye
MY_SERVICE_ACCOUNT@MY_PROJECT.iam.gserviceaccount.com
por el correo de la cuenta de servicio que has creado anteriormente.Ya deberías haber concedido los roles de gestión de identidades y accesos
roles/bigquery.jobUser
yroles/logging.logWriter
a la cuenta de servicio.
Ejecutar el flujo de trabajo y realizar varias consultas de forma secuencial
Al ejecutar un flujo de trabajo, se ejecuta la definición del flujo de trabajo actual asociada al flujo de trabajo.
Consola
En la Google Cloud consola, ve a la página Flujos de trabajo:
En la página Flujos de trabajo, selecciona el flujo de trabajo workflow-serial-bqjobs para ir a su página de detalles.
En la página Detalles del flujo de trabajo, haz clic en play_arrow Ejecutar.
Vuelve a hacer clic en Ejecutar.
Consulta los resultados del flujo de trabajo en el panel Información.
gcloud
Abre la terminal.
Ejecuta el flujo de trabajo:
gcloud workflows run workflow-serial-bqjob
La ejecución del flujo de trabajo debería durar aproximadamente un minuto o cinco veces el tiempo de ejecución anterior. El resultado incluirá cada tabla y tendrá un aspecto similar al siguiente:
{
"201201h": {
"title": "Special:Search",
"views": "14591339"
},
"201202h": {
"title": "Special:Search",
"views": "132765420"
},
"201203h": {
"title": "Special:Search",
"views": "123316818"
},
"201204h": {
"title": "Special:Search",
"views": "116830614"
},
"201205h": {
"title": "Special:Search",
"views": "131357063"
}
}
Desplegar y ejecutar un flujo de trabajo que ejecute varias consultas en paralelo
En lugar de ejecutar cinco consultas de forma secuencial, puedes ejecutarlas en paralelo haciendo algunos cambios:
- runQueries:
parallel:
shared: [results]
for:
value: table
in: ${tables}
- Un paso
parallel
permite que cada iteración del buclefor
se ejecute en paralelo. La variable
results
se declara comoshared
, lo que permite que una rama pueda escribir en ella y que se le pueda añadir el resultado de cada rama.
Consola
En la Google Cloud consola, ve a la página Flujos de trabajo:
Haz clic en Crear.
Escribe un nombre para el nuevo flujo de trabajo, como
workflow-parallel-bqjobs
.Elige una región adecuada, como us-central1.
Selecciona la cuenta de servicio que has creado anteriormente.
Haz clic en Siguiente.
En el editor del flujo de trabajo, introduce la siguiente definición para tu flujo de trabajo:
Haz clic en Desplegar.
En la página Detalles del flujo de trabajo, haz clic en play_arrow Ejecutar.
Vuelve a hacer clic en Ejecutar.
Consulta los resultados del flujo de trabajo en el panel Información.
gcloud
Abre un terminal y crea un archivo de código fuente para tu flujo de trabajo:
touch workflow-parallel-bqjobs.yaml
Copia el siguiente flujo de trabajo en tu archivo de código fuente:
Para desplegar el flujo de trabajo, introduce el siguiente comando:
gcloud workflows deploy workflow-parallell-bqjobs \ --source=workflow-parallel-bqjobs.yaml \ --service-account=MY_SERVICE_ACCOUNT@MY_PROJECT.iam.gserviceaccount.com
Sustituye
MY_SERVICE_ACCOUNT@MY_PROJECT.iam.gserviceaccount.com
por el correo de la cuenta de servicio que has creado anteriormente.Ejecuta el flujo de trabajo:
gcloud workflows run workflow-parallel-bqjobs
El resultado será similar al de la salida anterior, pero la ejecución del flujo de trabajo debería tardar unos 20 segundos o menos.