À propos du catalogue d'exécution Lakehouse

Le catalogue du runtime Lakehouse est un service sans serveur entièrement géré qui fournit une source unique de référence pour votre data lakehouse. Il permet à plusieurs moteurs, y compris Apache Spark, Apache Flink et BigQuery, de partager des tables et des métadonnées sans copier de fichiers.

Le catalogue d'exécution Lakehouse est compatible avec la délégation d'accès au stockage (distribution d'identifiants), ce qui améliore la sécurité en supprimant le besoin d'accès direct aux buckets Cloud Storage. Il s'intègre également à Knowledge Catalog pour une gouvernance, une traçabilité et une qualité des données unifiées.

Fonctionnalités clés

En tant que composant de Google Cloud Lakehouse, le catalogue d'exécution Lakehouse offre plusieurs avantages pour la gestion et l'analyse des données, y compris une architecture sans serveur, l'interopérabilité des moteurs avec les API ouvertes, une expérience utilisateur unifiée et des analyses, du streaming et de l'IA hautes performances lorsqu'il est utilisé avec BigQuery. Pour en savoir plus sur ces avantages, consultez Qu'est-ce que Google Cloud Lakehouse ?

Moteurs compatibles

Le catalogue Lakehouse Runtime est compatible avec plusieurs moteurs de requête, y compris (mais sans s'y limiter) Apache Spark, Apache Flink et Trino. Le tableau suivant fournit des liens vers la documentation de chaque moteur :

Engine Documentation
Apache Spark Démarrage rapide : utiliser avec Spark
Apache Flink Utiliser avec Apache Flink
Trino Utiliser avec Trino

Options de configuration

Le catalogue du runtime Lakehouse peut être configuré de deux manières : avec le point de terminaison du catalogue REST Apache Iceberg ou le point de terminaison du catalogue Apache Iceberg personnalisé pour BigQuery. La meilleure option dépend de votre cas d'utilisation, comme indiqué dans le tableau suivant :

Cas d'utilisation Recommandation
Nouveaux utilisateurs du catalogue d'exécution Lakehouse qui souhaitent que leur moteur Open Source accède aux données dans Cloud Storage et qui ont besoin d'une interopérabilité avec d'autres moteurs, y compris BigQuery et AlloyDB pour PostgreSQL. Utilisez le point de terminaison du catalogue REST Apache Iceberg.
Utilisateurs existants du catalogue d'exécution Lakehouse qui disposent de tables actuelles avec le catalogue Apache Iceberg personnalisé pour BigQuery. Continuez à utiliser le catalogue Apache Iceberg personnalisé pour le point de terminaison BigQuery, mais utilisez le catalogue Apache Iceberg REST pour les nouveaux workflows. Les tables créées avec le point de terminaison du catalogue Apache Iceberg personnalisé pour BigQuery sont visibles avec le catalogue Apache Iceberg REST via la fédération de catalogues BigQuery.

Différences avec le metastore Lakehouse Google Cloud (version classique)

Le catalogue d'exécution Lakehouse est le metastore recommandé surGoogle Cloud, tandis que Google Cloud Lakehouse metastore (classic) est considéré comme une fonctionnalité obsolète.

Voici les principales différences entre le catalogue du runtime Lakehouse et le metastore Lakehouse Google Cloud (classique) :

  • Le catalogue d'exécution Lakehouse est compatible avec l'intégration directe aux moteurs Open Source tels que Spark, ce qui permet de réduire la redondance lorsque vous stockez des métadonnées et exécutez des jobs. Les tables du catalogue d'exécution Lakehouse sont directement accessibles à partir de plusieurs moteurs Open Source et de BigQuery.
  • Le catalogue du runtime Lakehouse est compatible avec le point de terminaison du catalogue REST Apache Iceberg, contrairement au metastore Google Cloud Lakehouse (classique).

Limites du catalogue d'exécution Lakehouse

Les limites suivantes s'appliquent aux tables du catalogue Lakehouse Runtime :

Gestion des tableaux

  • Vous ne pouvez pas créer ni modifier des tables de catalogue REST Iceberg Lakehouse avec des instructions de langage de définition de données (LDD) ou de langage de manipulation de données (LMD) BigQuery. Vous pouvez modifier les tables du catalogue REST Iceberg Lakehouse à l'aide de l'API BigQuery (avec l'outil de ligne de commande bq ou les bibliothèques clientes), mais vous risquez d'apporter des modifications incompatibles avec le moteur externe.
  • Les tables de catalogue du runtime Lakehouse ne sont pas compatibles avec les opérations de renommage ni avec l'instruction SparkSQL ALTER TABLE ... RENAME TO.
  • Les tables de catalogue du runtime Lakehouse ne sont pas compatibles avec le clustering.
  • Les tables de catalogue du runtime Lakehouse ne sont pas compatibles avec les noms de colonnes flexibles.
  • Le catalogue du runtime Lakehouse n'est pas compatible avec les vues Apache Iceberg.

Requête

  • Les performances des requêtes pour les tables de catalogue du runtime Lakehouse à partir du moteur BigQuery peuvent être lentes par rapport aux requêtes sur des données dans des tables BigQuery standards. En général, la vitesse des requêtes doit être équivalente à celle de la lecture des données depuis Cloud Storage.
  • Une simulation BigQuery d'une requête qui utilise une table de catalogue Lakehouse Runtime peut indiquer une limite inférieure de 0 octet de données, même si des lignes sont renvoyées. Ce résultat se produit, car il est impossible de déterminer la quantité de données traitées à partir de la table tant que la requête complète n'est pas exécutée. L'exécution de la requête entraîne des frais pour le traitement de ces données.
  • Vous ne pouvez pas référencer une table de catalogue Lakehouse Runtime dans une requête de table générique.

API et métadonnées

  • Vous ne pouvez pas utiliser la méthode tabledata.list pour récupérer des données à partir des tables du catalogue Lakehouse Runtime. Vous pouvez enregistrer les résultats de la requête dans une table BigQuery, puis utiliser la méthode tabledata.list sur cette table.
  • L'affichage des statistiques de stockage de tables pour les tables de catalogue du runtime Lakehouse n'est pas pris en charge.

Quotas et limites

  • Les tables de catalogue du runtime Lakehouse dans BigQuery sont soumises aux mêmes quotas et limites que les tables standards.

Étapes suivantes