Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.
Kontingente und Nutzungslimits für Cloud Logging
In der folgenden Tabelle sind die Kontingente und Limits für die Nutzung von Cloud Logging aufgeführt. Im Allgemeinen können Sie eine Erhöhung eines Kontingents beantragen. Limits können jedoch nicht geändert werden.
Einige Einträge werden als „pro Projekt“ aufgeführt, aber im Hinweis wird angegeben, dass der Eintrag auch für Rechnungskonten, Ordner und Organisationen gilt und nicht hierarchisch ist. Beispiel: Wenn Sie mehrere Google Cloud -Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud -Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.
| Kategorie | Maximalwert des Limits oder Anfangskontingentwert |
Hinweise |
|---|---|---|
Größe von LogEntry |
256 KB | Dieses Limit ist angenähert und basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage. Kann nicht erhöht werden. |
| Größe eines Audit-Logeintrags | 512 KiB | Kann nicht erhöht werden. |
| Anzahl der Label | 64 pro LogEntry |
Kann nicht erhöht werden. |
Länge eines Labelschlüssels für LogEntry |
512 B | Cloud Logging kürzt zu große Labelschlüssel, wenn deren zugehöriger Logeintrag geschrieben wird. Kann nicht erhöht werden. |
Länge eines LogEntry-Labelwerts |
64 KB | Cloud Logging kürzt zu große Labelwerte, wenn deren zugehöriger Logeintrag geschrieben wird. Kann nicht erhöht werden. |
| Länge einer Abfrage in der Logging-Abfragesprache | 20.000 Zeichen | Kann nicht erhöht werden. |
| Parallele Anfrageverarbeitung | 200 Buckets | Dieses Limit gibt die maximale Anzahl von Buckets an, die Logeinträge für eine Ressource enthalten können. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück. Kann nicht erhöht werden. Aus Leistungsgründen sollten Sie die Anzahl der Log-Buckets minimieren und sie in einer Region erstellen. Wenn Sie häufig Logeinträge abfragen müssen, die aus verschiedenen Ressourcen stammen, sollten Sie Logeinträge an einige wenige zentralisierte Log-Buckets weiterleiten. |
| Anzahl der Waschbecken | 200 pro Google Cloud Projekt | Kann auf 4.000 erhöht werden. Dieses Kontingent gilt auch für Rechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. |
| Länge eines Aufnahmefilters für eine Senke | 20.000 Zeichen | Kann nicht erhöht werden. |
| Länge eines Ausschlussfilters für eine Senke | 20.000 Zeichen | Kann nicht erhöht werden. |
| Anzahl der Ausschlussfilter | 50 pro Senke | Kann nicht erhöht werden. Wenn Sie mehr als 50 Ausschlussfilter benötigen, müssen Sie den Einschlussfilter verfeinern. |
| Anzahl der Log-Buckets | 100 pro Google Cloud Projekt | Kann auf 2.500 erhöht werden. Dieses Kontingent gibt die maximale Anzahl von Buckets an, die Logeinträge für eine Ressource enthalten können. Es umfasst auch Buckets, die bald gelöscht werden. Dieses Kontingent gilt auch für Rechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. Wenn Sie die maximale Anzahl von Log-Buckets erhöhen, kann die Nutzerfreundlichkeit beeinträchtigt werden, da der Standard-Logbereich nicht alle Log-Buckets in einem Projekt enthalten kann. |
| Anzahl der benutzerdefinierten indexierten Felder | 20 pro Log-Bucket | Kann nicht erhöht werden. Cloud Logging unterstützt die Volltextindexierung. Daher raten wir davon ab, eine benutzerdefinierte Indexierung zu definieren. |
| Anzahl der Logansichten | 30 pro Log-Bucket | Kann auf 1.000 Logansichten in einem einzelnen Log-Bucket erhöht werden. Wenn Sie die maximale Anzahl von Log-Ansichten erhöhen, kann die Nutzerfreundlichkeit beeinträchtigt werden, da der Standard-Log-Bereich nicht alle Log-Buckets in einem Projekt umfassen kann. |
| Ältester Zeitstempel, der in Log-Buckets gespeichert werden kann | Wird durch die Aufbewahrungsdauer des Log-Buckets bestimmt. | Bei einem benutzerdefinierten Log-Bucket mit der standardmäßigen Aufbewahrungsdauer liegt dieser Wert 30 Tage in der Vergangenheit. Die Logging API akzeptiert Logeinträge mit älteren Zeitstempeln und diese Logeinträge werden an Senkenziele weitergeleitet. Wenn Logeinträge mit älteren Zeitstempeln an einen Log-Bucket weitergeleitet werden, werden sie jedoch nicht gespeichert. |
| Zukünftiger Zeitstempel, der in Log-Buckets gespeichert werden kann | Bis zu 1 Tag in der Zukunft | Die Logging API lehnt Einträge mit Zeitstempeln ab, die mehr als einen Tag in der Zukunft liegen, und gibt den Fehler INVALID_ARGUMENT zurück. Kann nicht erhöht werden. |
| Anzahl der Logbereiche pro Ressource | 100 | Kann auf 10.000 erhöht werden. |
| Anzahl der Logansichten und Projekte in einem Logbereich | 100 | Wir empfehlen, dass in einem Log-Bereich nach Möglichkeit Log-Ansichten anstelle von Projekten aufgeführt werden. Wenn Sie Logansichten auflisten, verkürzt sich die Abfragezeit und es ist klarer, welche Logeinträge abgefragt werden. |
| Anzahl der Projekte in einem Logbereich | 5 | Wir empfehlen, dass in einem Log-Bereich nach Möglichkeit Log-Ansichten anstelle von Projekten aufgeführt werden. Die Logansichten können sich in verschiedenen Projekten befinden. |
| Maximale Anzahl von Analytics-Ansichten pro Google Cloud Projekt | 100 | Kann nicht erhöht werden. Dieses Feature befindet sich in der öffentlichen Vorschau. |
| Maximale Anzahl von Analyseansichten pro Google Cloud -Projekt und Region | 50 | Kann nicht erhöht werden. Dieses Feature befindet sich in der öffentlichen Vorschau. |
| Maximale Anzahl von Regionen, in denen Analyseansichten gespeichert werden können, pro Google Cloud Projekt | 10 | Kann nicht erhöht werden. Dieses Feature befindet sich in der öffentlichen Vorschau. |
Kontingente und Limits der Logging API
Für die Nutzung der Logging API gelten die folgenden Limits. Sie können Änderungen an Ihren Logging API-Kontingenten und ‑Limits anfordern. Eine Anleitung dazu finden Sie auf dieser Seite unter Änderungen am Cloud Logging API-Kontingent anfordern.
Wenn Sie Ihre API-Kontingente aufrufen möchten, gehen Sie zum API-Dashboard, wählen Sie eine API aus und klicken Sie dann auf Kontingente.
| Kategorie | Maximalwert des Limits oder Anfangskontingentwert |
Hinweise |
|---|---|---|
| Lebensdauer der API-Seitentoken | 24 Stunden | Kann nicht erhöht werden. |
| Anzahl der geöffneten Live-Tailing-Sitzungen | 10 pro Google Cloud Projekt | Kann nicht erhöht werden. Dieses Limit gilt auch für Rechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. |
| Anzahl der zurückgegebenen Live-Verfolgungs-Einträge | 60.000 pro Minute | Kann nicht erhöht werden. |
| Anzahl der eingeschränkten Felder | 20 pro Bucket | Kann nicht erhöht werden. |
| Größe eines eingeschränkten Felds | 800 B | Kann nicht erhöht werden. |
Größe einer entries.write-Anfrage |
10 MB | Kann nicht erhöht werden. |
Anteil der entries.write-Anfragen nach Region |
4,8 GB pro Minute und Google Cloud Projekt in den Regionen
asia-east1,
asia-northeast1,
asia-southeast1,
asia-south1,
europe-west1,
europe-west2,
europe-west3,
europe-west4,
us-central1,
us-east4,
us-west1
300 MB pro Minute und Google Cloud Projekt in allen verbleibenden Regionen |
Sie können eine Kontingenterhöhung anfordern. Dieses Kontingent gilt auch für Rechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. Weitere Informationen zu diesen Kontingenten finden Sie unter Aufnahmekontingente pro Region. Die Verwendung von Ausschlussfiltern reduziert die Rate der Schreibanfragen nicht, da Logeinträge nach der |
Anzahl der entries.list-Anfragen |
60 pro Minute und Google Cloud Projekt | Kann nicht erhöht werden. Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. Wenn Sie große Mengen an Logs abfragen möchten, sollten Sie die BigQuery APIs verwenden. Wenn Sie große Mengen an Logs übertragen möchten, sollten Sie eine Logs-Senke oder Logeinträge kopieren verwenden. |
Anzahl der verschiedenen Ressourcennamen in einem einzelnen entries.write-Befehl |
1000 | Kann nicht erhöht werden. Das Feld |
| Kontrollanfragen pro Minute | 600 | Kann nicht erhöht werden. Dieses Kontingent gilt für alle Elemente, die auch im täglichen Kontingent für Kontrollanfragen enthalten sind, sowie für API-Anfragen zum Löschen von Logs und zum Verwalten logbasierter Messwerte. |
| Kontrollanfragen pro Tag | 1.000 pro Google Cloud Projekt | Kann nicht erhöht werden. Dieses Kontingent gilt für API-Anfragen zum Erstellen und Aktualisieren von Ausschlüssen und Senken. |
| Anzahl der Google Cloud Projekte oder anderen Ressourcennamen in einer einzelnen entries.list-Anfrage |
100 | Kann nicht erhöht werden. |
| Anzahl gleichzeitiger Kopiervorgänge | 1 pro Google Cloud Projekt | Kann nicht erhöht werden. Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch. |
| Rate der Exporte in Pub/Sub-Themen | 60 GB pro Minute pro Google Cloud Projekt, Ordner oder Organisation, in der die Senke definiert ist | Sie können eine Supportanfrage stellen, um Ihr Kontingent zu erhöhen. Ein höheres Kontingent wird basierend auf der Pub/Sub-Verfügbarkeit gewährt. Wenn die Exportrate das Kontingent überschreitet, wird der Fehler in einem Logeintrag aufgezeichnet. Das Zusammenfassungsfeld gibt einen Fehler bei der Senkenkonfiguration an und der Fehlercode wird als |
Aufnahmekontingente pro Region
Um die Isolation zu verbessern und regionale Ressourcen vor einer Überlastung durch die Aufnahme zu schützen, wird durch Cloud Logging-Kontingente das Datenvolumen, das in eine Aufnahmeregion geschrieben wird, proGoogle Cloud -Projekt begrenzt.
In der folgenden Tabelle sehen Sie das Standardkontingent für jede Region:
| Aufnahmeregion | Standardwert |
|---|---|
asia-east1,
asia-northeast1,
asia-southeast1,
asia-south1,
europe-west1,
europe-west2,
europe-west3,
europe-west4,
us-central1,
us-east4,
us-west1
|
4, 8 GB pro Minute und Google Cloud Projekt |
| Alle verbleibenden Regionen | 300 MB pro Minute und Google Cloud Projekt |
Die Standardwerte für die regionalen Kontingente überschreiten die Aufnahmevolumina der meisten Nutzer. Wenn das Aufnahmevolumen Ihres Projekts aus einer Region in den letzten sechs oder mehr Monaten jedoch nahe oder über dem Standardkontingent für diese Region lag, bevor die Kontingente durchgesetzt wurden, enthält Ihr anfängliches Kontingent eine automatische, einmalige Erhöhung. Daher können Ihre Kontingente höher sein als die Standardkontingente in der Tabelle oben. Informationen zum Überprüfen von Kontingenten finden Sie unter Logging-Kontingente prüfen.
Wenn Sie ein regionales Kontingent überschreiten, werden Ihre Schreibanfragen an die Cloud Logging API möglicherweise mit der Fehlermeldung „resource exhausted“ (Ressource erschöpft) abgelehnt. Empfehlungen, mit denen Sie das Überschreiten von Kontingenten vermeiden können, finden Sie unter Logging-Kontingente verwalten und überwachen.
Kontingente für die Cloud Logging API ansehen
So rufen Sie Ihre Kontingente für die Cloud Logging API auf:
-
Rufen Sie in der Google Cloud Console die Seite Kontingente und Systemlimits auf:
Zur Seite Kontingente und Systemlimits
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM & Admin lautet.
- Filtern Sie die Liste der Kontingente nach dem Dienst „Cloud Logging API“.
Änderungen am Cloud Logging API-Kontingent anfordern
Über dieGoogle Cloud Console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.
Wenn die Fehlermeldung Edit is not allowed for this quota ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Beachten Sie auch, dass die Abrechnung für dasGoogle Cloud -Projekt aktiviert sein muss, damit die Kästchen angeklickt werden können.
Cloud Logging API-Kontingente verwalten und überwachen
So können Sie Dienstunterbrechungen aufgrund von überschrittenen Kontingenten vermeiden:
- Mit der automatischen Kontingentanpassung können Sie Ihre Kontingentnutzung überwachen und Erhöhungen anfordern. Weitere Informationen finden Sie unter Kontingentanpassung.
- Benachrichtigungen für Kontingente erstellen, um über die Nutzung informiert zu werden Weitere Informationen finden Sie unter Kontingentbenachrichtigungen einrichten.
Nutzung von entries.list optimieren
entries.list wird verwendet, um nach übereinstimmenden Logs zu suchen. Diese Methode ist nicht für den umfangreichen Abruf von Logeinträgen vorgesehen. Wenn Sie Ihr entries.list-Kontingent regelmäßig ausschöpfen, sollten Sie die folgenden Optionen in Betracht ziehen:
Achten Sie darauf, dass Sie die Cloud Logging API effektiv nutzen. Weitere Informationen finden Sie unter API-Nutzung optimieren.
Wenn Sie im Voraus wissen, dass die Logeinträge, die Sie analysieren möchten, das
entries.list-Kontingent überschreiten, konfigurieren Sie eine Logsenke, um Ihre Logs an ein unterstütztes Ziel zu exportieren.
- Wenn Sie Logeinträge außerhalb von Logging analysieren möchten, können Sie Logeinträge, die bereits in Logging vorhanden sind, nachträglich in Cloud Storage-Buckets kopieren. Wenn Sie Logs in einen Cloud Storage-Bucket kopieren, können Sie Logeinträge für Prüfer außerhalb von Logging freigeben und Skripts in Cloud Storage ausführen.
Wenn Sie Ihre Logeinträge in Logging zusammenfassen und analysieren möchten, speichern Sie sie in einem Log-Bucket und führen Sie dann ein Upgrade dieses Log-Buckets durch, um Loganalysen zu verwenden. Weitere Informationen zu diesen Schritten finden Sie unter Log-Buckets konfigurieren.
Mit Log Analytics können Sie Ihre Logeinträge mit BigQuery-Standard-SQL abfragen.
Logbasierte Messwerte
Folgende Limits gelten für die Nutzung benutzerdefinierter logbasierter Messwerte. Mit Ausnahme der Anzahl der Messwertdeskriptoren sind diese Limits festgelegt. Sie können sie weder erhöhen noch verringern.
| Kategorie | Maximalwert |
|---|---|
| Anzahl der Labels | 10 pro Messwert |
| Länge des Labelwerts | 1.024 B |
| Länge der Labelbeschreibung | 800 B |
| Länge des Filters1 | 20.000 Zeichen |
| Länge von Messwertdeskriptoren | 8.000 B |
| Anzahl der Messwertdeskriptoren | 500 pro Google Cloud Projekt2 |
| Anzahl der aktiven Zeitachsen3 | 30.000 pro Messwert |
| Anzahl der Histogramm-Buckets | 200 pro benutzerdefiniertem Verteilungsmesswert |
| Datenaufbewahrung | Cloud Monitoring: Datenaufbewahrung |
1 Jeder logbasierte Messwert enthält einen Filter. Wenn ein Logeintrag mit dem Filter übereinstimmt, wird er gezählt. Filter werden mit der Logging-Abfragesprache definiert.
2 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen und ist nicht hierarchisch.
3 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.
Audit-Logging
Die maximalen Größen von Audit-Logs sind in der folgenden Tabelle aufgeführt. Mithilfe dieser Werte können Sie den erforderlichen Speicherplatz in Ihren Senken schätzen.
| Audit-Logtyp | Maximalgröße |
|---|---|
| Administratoraktivität | 512 KiB |
| Datenzugriff | 512 KiB |
| Systemereignis | 512 KiB |
| Richtlinie abgelehnt | 512 KiB |
Aufbewahrungsdauer für Logs
Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:
| Bucket | Standardmäßige Aufbewahrungsdauer | Benutzerdefinierte Aufbewahrung |
|---|---|---|
_Required |
400 Tage | Nicht konfigurierbar |
_Default |
30 Tage | Konfigurierbar |
| Benutzerdefiniert | 30 Tage | Konfigurierbar |
Bei _Default- und benutzerdefinierten Log-Buckets können Sie Cloud Logging so konfigurieren, dass die Logs 1–3.650 Tage lang aufbewahrt werden. Informationen zum Festlegen von Aufbewahrungsregeln finden Sie unter Benutzerdefinierte Aufbewahrung konfigurieren.
Preise
Preisinformationen finden Sie auf der Seite Google Cloud Observability-Preise. Wenn Sie Logdaten an andere Google Cloud -Dienste weiterleiten, lesen Sie die folgenden Dokumente: