Kontingente und Limits

In diesem Dokument sind die Kontingente für Knowledge Catalog (ehemals Dataplex Universal Catalog) aufgeführt.

Google Cloud nutzt Kontingente, um für Fairness zu sorgen und Spitzen bei der Ressourcennutzung und ‑verfügbarkeit zu reduzieren. Ein Kontingent schränkt ein, wie viel von einerGoogle Cloud Ressource Ihr Google Cloud Projekt nutzen kann. Kontingente gelten für eine Reihe von Ressourcentypen, einschließlich Hardware, Software und Netzwerkkomponenten. Mit Kontingenten können Sie beispielsweise die Anzahl der API-Aufrufe an einen Dienst, die Anzahl der von Ihrem Projekt nebenläufig verwendeten Load Balancer oder die Anzahl der Projekte begrenzen, die Sie erstellen können. Kontingente sollen eine Überlastung von Diensten verhindern und dadurch die Community derGoogle Cloud Nutzer schützen. Sie helfen Ihnen auch bei der Verwaltung Ihrer eigenen Google Cloud Ressourcen.

Das Cloud-Kontingentsystem tut Folgendes:

Wenn Sie versuchen, mehr von einer Ressource zu verbrauchen, als das Kontingent zulässt, blockiert das System in den meisten Fällen den Zugriff auf die Ressource. Die Aufgabe, die Sie auszuführen versuchen, schlägt dann fehl.

Kontingente gelten in der Regel auf Google Cloud Projektebene. Die Nutzung einer Ressource in einem Projekt hat keinen Einfluss auf das verfügbare Kontingent in einem anderen Projekt. Innerhalb eines Google Cloud Projekts werden die Kontingente für alle Anwendungen und IP-Adressen gemeinsam genutzt.

Weitere Informationen finden Sie unter dem Cloud-Kontingente – Übersicht.

Für Knowledge Catalog-Ressourcen gelten außerdem Systemlimits. Systemlimits können nicht geändert werden.

Knowledge Catalog erzwingt Kontingente für die Anzahl der API-Anfragen in einem bestimmten Zeitraum und die Anzahl der Ressourcen, die in einem Projekt erstellt werden können. Kontingente schützen Sie vor unvorhergesehenen Nutzungsspitzen und überlasteten Diensten. Weitere Informationen zu den Gründen, warum Kontingente erzwungen werden.

Ihr Kontingentbedarf kann mit zunehmender Nutzung von Knowledge Catalog steigen. Wenn das verfügbare Kontingent für Ihr Projekt nicht ausreicht oder Sie eine stärkere Auslastung erwarten , können Sie proaktiv eine Kontingenterhöhung anfordern.

Kontingente für Dataplex API-Anfragen

Die Dataplex API erzwingt Kontingente für die Ressourcenverwaltung und Suchanfragen von Knowledge Catalog auf verschiedenen Ebenen, unabhängig von ihrer Herkunft. Dazu gehören Anfragen, die direkt von API-Aufrufen, Clientbibliotheken, der Google Cloud CLI und Google Cloud derconsole stammen.

Für Knowledge Catalog-Anfragen gelten die folgenden Kontingente:

Quota Standard
Leseanfragen für Einträge und Aspekte pro Projekt, Region und Minute 6000
Schreibanfragen für Einträge und Aspekte pro Projekt, Region und Minute 1500
Leseanfragen für Aspekttypen, Eintragstypen und Eintragsgruppen pro Projekt, Nutzer und Minute 100
Leseanfragen für Aspekttypen, Eintragstypen und Eintragsgruppen pro Projekt und Minute 200
Schreibanfragen für Aspekttypen, Eintragstypen und Eintragsgruppen pro Projekt, Nutzer und Minute 10
Schreibanfragen für Aspekttypen, Eintragstypen und Eintragsgruppen pro Projekt und Minute 20
Suchanfragen pro Projekt, Nutzer und Minute 900
Suchanfragen pro Projekt und Minute 1200
Suchanfragen pro Organisation und Minute 2400
Suchanfragen pro Organisation und Tag 345600
Leseanfragen für Metadatenjobs pro Projekt, Region und Minute 400
Leseanfragen für Metadatenjobs pro Projekt, Nutzer, Region und Minute 200
Schreibanfragen für Metadatenjobs pro Projekt, Region und Minute 20
Schreibanfragen für Metadatenjobs pro Projekt, Nutzer, Region und Minute 10
Menge der Metadaten, die von Metadatenexportjobs exportiert werden, pro Organisation und Tag 10 GB

Menge der Metadaten, die von Metadatenexportjobs zum Export gescannt werden, pro Organisation und Tag

Dieses Kontingent bewertet das Gesamtvolumen der Metadaten, die entweder die Organisation, die Projekte oder die Eintragsgruppen vorhanden sind, die für den Metadatenexportjob relevant sind.

100 GB

Für jede in der folgenden Tabelle aufgeführte Knowledge Catalog-Anfrage wird das Kontingent sowohl auf Projekt- als auch auf Projekt-Nutzer-Ebene erzwungen.

Quota Beispiele
Leseanfragen für die Ressourcenverwaltung Lake abrufen, Zonen auflisten
Schreibanfragen für die Ressourcenverwaltung Lake erstellen, Asset löschen
Anfragen zum Abrufen von Metadaten Entität abrufen, Partition abrufen
Anfragen zum Auflisten von Metadaten Entitäten auflisten, Partitionen auflisten
Schreibanfragen für Metadaten Entität aktualisieren, Partition löschen
Leseanfragen für Aufgaben- und Jobressourcen Aufgabe abrufen, Jobs auflisten
Schreibanfragen für Aufgaben- und Jobressourcen Aufgabe erstellen, Job abbrechen
Anfragen zum Festlegen von IAM-Richtlinien IAM-Richtlinie festlegen

Kontingente für Data Lineage API-Anfragen

Die Data Lineage API erzwingt Kontingente für Folgendes:

  • Leseanfragen, die nur die Daten zurückgeben
  • Schreibanfragen, die die Daten erstellen oder ändern
  • Open Lineage erstellen

Für Datenherkunftsanfragen gelten die folgenden Kontingente:

Quota Standardwert
Leseanfragen pro Projekt, Nutzer, Region und Minute 1000
Schreibanfragen pro Projekt, Nutzer, Region und Minute 6000
Open Lineage-Anfragen pro Projekt, Nutzer, Region und Minute 3000

Kontingente für Ressourcen

Das Ressourcenkontingent wird auf Projektebene für die folgenden Ressourcentypen erzwungen: Lake, Zone, Asset, On-Demand-Aufgabe, wiederkehrende Aufgabe. Sie können Ihre aktuelle Nutzung des Knowledge Catalog-Kontingents in der Google Cloud console auf der Seite Kontingente prüfen.

Kontingenterhöhung anfordern

  1. Rufen Sie in der Google Cloud console die Seite Kontingente auf.

    Kontingente aufrufen

  2. Wählen Sie das Kontingent aus, das Sie ändern möchten.

  3. Klicken Sie auf Weitere Aktionen > Kontingent bearbeiten.

  4. Geben Sie den neuen Kontingentwert und eine Beschreibung der Anfrage ein.

  5. Klicken Sie auf Weiter.

  6. Geben Sie die Kontaktdaten ein.

  7. Klicken Sie auf Anfrage senden.

Die meisten Kontingente können Sie in der Google Cloud console anpassen. Weitere Informationen finden Sie unter Kontingentanpassung anfordern.

Kontingentabhängigkeiten

Bei der Nutzung von Knowledge Catalog werden möglicherweise andere Google Cloud Produkte verwendet. Für die Datenermittlung müssen beispielsweise Cloud Storage- und/oder BigQuery-APIs aufgerufen werden, um mit den zugrunde liegenden Ressourcen zu interagieren. Für diese gelten Kontingente auf Projektebene, von denen einige auch die Nutzung von Knowledge Catalog betreffen.

Kontingentseiten anderer Produkte, die Sie möglicherweise mit Knowledge Catalog verwenden:

Diese Liste ist nicht vollständig.

Limits

Für Knowledge Catalog gelten die folgenden Limits:

Limit Wert
Größe einer Anfrage für Einträge und Aspekte (einschließlich Schemaaspekt) 2 MB
Länge einer Eintrags-ID 4.000 Zeichen
Länge eines vollständig qualifizierten Namens in einem Eintrag 4.000 Zeichen
Länge des Anzeigenamens der Eintragsquelle in einem Eintrag 500 Zeichen
Länge der Beschreibung der Eintragsquelle in einem Eintrag 2.000 Zeichen
Länge der Eintragsquellenressource in einem Eintrag 4.000 Zeichen
Länge des Eintragsquellensystems in einem Eintrag 64 Zeichen
Länge der Eintragsquellenplattform in einem Eintrag 64 Zeichen
Länge der Labels der Eintragsquelle in einem Eintrag 128 Zeichen für jeden Schlüssel und Wert
Größe des JSON-Inhalts in einem Aspekt (außer Schema- und Datenprofilaspekte) 120 KB
Größe des JSON-Inhalts in einem Datenprofilaspekt 1 MB
Gesamtgröße eines Eintrags 5 MB
Maximale Anzahl von Aspekten in einem Eintrag 10.000
Länge des Anzeigenamens von Eintragstyp, Aspekttyp und Eintragsgruppe 256
Länge der Beschreibung von Eintragstyp, Aspekttyp und Eintragsgruppe 1.024
Länge des Feldnamens in einer Aspekttypvorlage 63
Maximale Anzahl der erforderlichen Aspekttypen in einem Eintragstyp 20
Maximale Anzahl von Enum-Werten in einer Aspekttypvorlage 1.024
Maximale Anzahl von Elementen in Knowledge Catalog-Suchergebnissen 500 (Suchmodus nur mit Keywords in der Google Cloud console oder semanticSearch=false bei Verwendung der API)

100 (alle anderen Suchfälle)
Maximale Anzahl von Datenprodukten pro Projekt und Region 50
Maximale Anzahl von Daten-Assets pro Datenprodukt 10