Paso 6: Ejecuta la implementación

En esta página, se describe el sexto paso para implementar Cortex Framework Data Foundation, el núcleo de Cortex Framework. En este paso, ejecutarás la implementación de Cortex Framework Data Foundation.

Proceso de compilación

Después de configurar el config.json archivo como se describe en el Paso 5: Configura la implementación, sigue estas instrucciones para compilar tu proceso.

  1. Ejecuta el siguiente comando para ubicarte en el repositorio clonado:

    cd cortex-data-foundation
    
  2. Ejecuta el comando de compilación con el bucket de registros de destino:

     gcloud builds submit \
     --substitutions=_GCS_BUCKET=LOGS_BUCKET_NAME,_BUILD_ACCOUNT='projects/SOURCE_PROJECT/serviceAccounts/CLOUD_BUILD_SA@SOURCE_PROJECT.iam.gserviceaccount.com'
    

    Reemplaza lo siguiente:

    • LOGS_BUCKET_NAME por el nombre del bucket para el almacenamiento de registros. La cuenta de servicio de Cloud Build necesita acceso para escribirlos aquí.
    • SOURCE_PROJECT por el proyecto de origen.
    • CLOUD_BUILD_SA por el ID de cuenta del servicio de Cloud Build creada en el paso 4 de la implementación.
  3. Sigue el proceso de compilación principal mirando los registros en la terminal o en la consola de Cloud Build, si tienes suficientes permisos. Consulta las siguientes imágenes para obtener más información.

    Progreso de los registros

    Figura 1. Ejemplo de cómo ver el progreso de los registros en la terminal

    Progreso de los registros

    Figura 2. Ejemplo de cómo ver el progreso de los registros en la consola
  4. Haz un seguimiento de los pasos de compilación secundarios activados desde la consola de Cloud Build o dentro de los registros creados a partir de los pasos. Consulta las siguientes imágenes para obtener más información.

    Seguimiento de los pasos de compilación de elementos secundarios

    Figura 3. Ejemplo de seguimiento de pasos de compilación secundarios en la consola

    Seguimiento de los pasos de compilación de elementos secundarios

    Figura 4. Ejemplo de seguimiento de pasos de compilación secundarios dentro de los registros
  5. Identifica cualquier problema con las compilaciones individuales. Corrige los errores, si los hay. Se recomienda pegar el SQL generado en BigQuery para identificar y corregir los errores. La mayoría de los errores están relacionados con campos que se seleccionan, pero que no están presentes en la fuente replicada. La IU de BigQuery ayuda a identificarlos y comentarlos.

    Identifica los problemas

    Figura 5. Ejemplo de identificación de problemas a través de los registros de Cloud Build

Mueve archivos al bucket de DAG de Managed Service para Apache Airflow (Airflow)

Si elegiste generar archivos de integración o CDC y tienes una instancia de Managed Airflow (Airflow), puedes moverlos a su bucket final con el siguiente comando:

  gcloud storage -m cp -r  gs://OUTPUT_BUCKET/dags/ gs://COMPOSER_DAG_BUCKET/
  gcloud storage -m cp -r  gs://OUTPUT_BUCKET/data/ gs://COMPOSER_DAG_BUCKET/

Reemplaza lo siguiente:

  • OUTPUT_BUCKET por el bucket de salida.
  • COMPOSER_DAG_BUCKET por el bucket de DAG de Managed Airflow (Airflow).

Personaliza y prepárate para la actualización

Muchos clientes empresariales tienen personalizaciones específicas de sus sistemas, como documentos adicionales en un flujo o tipos específicos de un registro. Estos son específicos para cada cliente y los analistas funcionales los configuran a medida que surgen las necesidades comerciales.

Cortex utiliza etiquetas ## CORTEX-CUSTOMER en el código para indicar lugares donde es probable que se requieran esas personalizaciones. Usa el comando grep -R CORTEX-CUSTOMER para verificar todos los comentarios ## CORTEX-CUSTOMER que debes personalizar.

Además de las etiquetas CORTEX-CUSTOMER, es posible que debas personalizar aún más lo siguiente. Para ello, confirma todos estos cambios con una etiqueta clara en el código de tu propio repositorio bifurcado o clonado:

  • Agregar reglas comerciales
  • Agregar otros conjuntos de datos y unirlos con vistas o tablas existentes
  • Reutilizar las plantillas proporcionadas para llamar a APIs adicionales
  • Modificar secuencias de comandos de implementación
  • Adaptar algunas tablas o APIs de destino para incluir campos adicionales que no se incluyen en el estándar

Adopta una canalización de CI/CD que funcione para tu organización para mantener estas mejoras probadas y tu solución general en un estado confiable y sólido. Una canalización puede reutilizar las cloudbuild.yaml secuencias de comandos para activar la implementación de extremo a extremo de forma periódica o según las operaciones de Git, según el repositorio que elijas mediante la automatización de compilaciones.

Usa el archivo config.json para definir diferentes conjuntos de proyectos y conjuntos de datos para entornos de desarrollo, pruebas y producción. Usa pruebas automatizadas con tus propios datos de muestra para asegurarte de que los modelos siempre produzcan lo que esperas.

Etiquetar tus propios cambios de forma visible en tu bifurcación o clon de un repositorio junto con la automatización de algunas pruebas y la implementación ayuda a realizar actualizaciones.

Asistencia

Si tienes algún problema o solicitud de funciones relacionados con estos modelos o implementadores, crea un problema en el repositorio de Cortex Framework Data Foundation. Para ayudarte a recopilar la información necesaria, ejecuta support.sh desde el directorio clonado. Esta secuencia de comandos te guía a través de una serie de pasos para ayudarte a solucionar problemas.

Si tienes solicitudes o problemas de Cortex Framework, ve a la sección de asistencia en la página de descripción general.

Bloques y paneles de Looker

Aprovecha los bloques y paneles de Looker disponibles. Estos son, básicamente, modelos de datos reutilizables para patrones analíticos comunes y fuentes de datos para Cortex Framework. Para obtener más información, consulta Descripción general de los bloques y paneles de Looker.