Auf dieser Seite wird Rapid Cache beschrieben, eine Funktion, die einen SSD-gestützten, zonalen Lese-Cache für Cloud Storage-Buckets bietet. So können Sie einen höheren Durchsatz und eine geringere Latenz für Ihre gespeicherten Daten erzielen. Rapid Cache bietet Speicherkapazität und Bandbreite, die automatisch an Ihre Anforderungen angepasst werden.
Aufgrund seiner Vorteile ist Rapid Cache hilfreich, um die Leistung zu verbessern und die Netzwerkkosten für leseintensive Arbeitslasten zu senken.
Informationen zum Erstellen und Verwalten von Caches in Rapid Cache finden Sie unter Caches erstellen und verwalten.
Funktionsweise
Mit Rapid Cache können Sie Caches in derselben Zone wie Ihre Arbeitslasten erstellen. Wenn Sie einen Cache in einer Zone erstellen, werden Datenleseanfragen, die aus der Zone stammen, vom Cache anstelle des Buckets verarbeitet. Jeder Cache bedient Clients in derselben Zone wie der Cache. Daten werden nur dann von Ihrem Bucket in den Cache aufgenommen, wenn sie von einer VM gelesen werden, die sich in derselben Zone wie der Cache befindet. Außerdem können Daten aufgenommen werden, wenn sie in Ihren Bucket geschrieben werden, sofern Sie Ingest on Write konfigurieren. Metadaten werden nicht im Cache gespeichert und Anfragen für Objektmetadaten werden vom Bucket und nicht vom Cache verarbeitet.
Rapid Cache ist ein vollständig verwalteter Dienst, der immer konsistente Daten zurückgibt.
Autoscaling von Cachegröße und Bandbreitenlimit
Rapid Cache bietet temporären Speicherplatz und Bandbreite, die automatisch je nach Menge der in einem Cache gespeicherten Daten skaliert werden.
Das Cache-Bandbreitenlimit beginnt bei 100 Gbit/s und wird mit einer Rate von 20 Gbit/s pro 1 TiB gespeicherter Daten skaliert. Sie können die Startbandbreite oder das gesamte Bandbreitenlimit erhöhen, indem Sie die Menge der im Cache gespeicherten Daten erhöhen, mehr Caches in einer Zone erstellen oder sich an Ihren Technical Account Manager oder Google-Ansprechpartner wenden.
Weitere Informationen zu Größen- und Bandbreitenlimits für Rapid Cache finden Sie unter Cloud Storage-Kontingente und ‑Limits.
Daten in Zonen im Cache speichern
Wenn Sie einen Cache für einen Bucket erstellen, muss er in einer Zone innerhalb des Standorts Ihres Buckets erstellt werden. Wenn sich Ihr Bucket beispielsweise in der Region us-east1 befindet, können Sie einen Cache in us-east1-b, aber nicht in us-central1-c erstellen. Wenn sich Ihr Bucket in der Dual-Region ASIA befindet, können Sie einen Cache in allen Zonen erstellen, aus denen die Regionen asia-east1 und asia-southeast1 bestehen.
Für jeden Bucket können Sie maximal einen Cache pro Zone erstellen. Wenn sich ein Bucket beispielsweise in der Region us-east1 befindet, können Sie einen Cache in us-east1-b und einen weiteren Cache in us-east1-c erstellen. Wenn sich ein Bucket in einer Multiregion befindet, die us-central1 und us-east1 umfasst, können Sie einen Cache in us-central1-a und einen weiteren Cache in us-east1-b erstellen.
Sie können Caches in Zonen erstellen, sofern Kapazität für die Zone verfügbar ist. Wenn die Kapazität zum Erstellen eines Caches nicht verfügbar ist, versucht Rapid Cache weiterhin, einen Cache zu erstellen, bis die Kapazität verfügbar ist oder der Erstellungsprozess vom Nutzer abgebrochen wird. Die Kapazität ist möglicherweise über einen längeren Zeitraum nicht verfügbar.
Sie können Rapid Cache in den folgenden Zonen verwenden. Diese Zonen können je nach Standorttyp Ihres Buckets verwendet werden.
| Geografischer Bereich | Standort | ||||
|---|---|---|---|---|---|
| Zonenname | Region | Dual-Region | Multiregion | Benutzerdefinierte Dual-Region | |
| Asien | |||||
asia-east1-a |
|||||
asia-east1-b |
|||||
asia-east1-c |
|||||
asia-northeast1-a |
|||||
asia-northeast1-b |
|||||
asia-northeast1-c |
|||||
asia-south1-a |
|||||
asia-south1-b |
|||||
asia-south1-c |
|||||
asia-southeast1-a |
|||||
asia-southeast1-b |
|||||
asia-southeast1-c |
|||||
| Europa | |||||
europe-north1-a |
|||||
europe-north1-b |
|||||
europe-north1-c |
|||||
europe-west1-b |
|||||
europe-west1-c |
|||||
europe-west1-d |
|||||
europe-west4-a |
|||||
europe-west4-b |
|||||
europe-west4-c |
|||||
europe-west6-a |
|||||
europe-west6-b |
|||||
| USA | |||||
us-central1-a |
|||||
us-central1-b |
|||||
us-central1-c |
|||||
us-central1-f |
|||||
us-central1-ai1a
(KI-Zone) |
|||||
us-east1-b |
|||||
us-east1-c |
|||||
us-east1-d |
|||||
us-east4-a |
|||||
us-east4-b |
|||||
us-east4-c |
|||||
us-east5-a |
|||||
us-east5-b |
|||||
us-east5-c |
|||||
us-south1-a |
|||||
us-south1-b |
|||||
us-south1-c |
|||||
us-south1-ai1b
(KI-Zone) |
|||||
us-west1-a |
|||||
us-west1-b |
|||||
us-west1-c |
|||||
us-west3-a |
|||||
us-west3-b |
|||||
us-west3-c |
|||||
us-west4-a |
|||||
us-west4-b |
|||||
us-west4-c |
|||||
Datenaufnahme
Daten werden immer in den Cache aufgenommen, wenn zum ersten Mal über einen Bucket darauf zugegriffen wird. Der erste Lesevorgang wird als Cache-Fehler und nachfolgende Lesevorgänge als Cache-Treffer behandelt, wodurch das Lesen von Daten beschleunigt wird. Optional können Sie einen Cache konfigurieren, um Daten beim Schreiben aufzunehmen und so den anfänglichen Cache-Fehler zu vermeiden. Dies ist für Anwendungsfälle wie das Wiederherstellen von Prüfpunkten oder das Vorbereiten von Datenpipelines für das Trainieren von Modellen von Vorteil.
Beim Aufnehmen von Daten in einen Cache zerlegt Rapid Cache Objekte in kleinere Chunks mit fester Größe. Durch das Aufteilen von Objekten in Blöcke ist ein detaillierteres Caching möglich, insbesondere bei großen Dateien, auf die nur bestimmte Teile zugreifen.
Ein Chunk ist ein 2 MB großer Datenblock. Wenn eine Anfrage für ein Objekt gestellt wird, ermittelt Rapid Cache, welche 2‑MB-Chunks den angeforderten Bytebereich abdecken, und verwaltet diese Chunks unabhängig voneinander.
Das Verhalten beim Aufnehmen von Daten hängt von der Größe des Objekts ab, das in den Cache aufgenommen wird:
Bei Leseanfragen für Objekte, die größer als 2 MB sind, werden nur die Chunks aufgenommen, die den angeforderten Bytebereich enthalten. Wenn Sie beispielsweise die ersten 1 MB einer 100 MB großen Datei lesen, wird nur der erste 2 MB-Chunk aufgenommen.
Bei Leseanfragen für Objekte, die kleiner als 2 MB sind (z. B. ein 500 KB großes Bild), wird das gesamte Objekt in den Cache aufgenommen.
Cache-Konfiguration
Sie können die folgenden Attribute festlegen, wenn Sie einen Cache konfigurieren:
Time to Live (TTL)
Die TTL ist die längste Zeit, die ein Datenblock ab dem letzten Lesevorgang im Cache verbleibt. Wenn die TTL beispielsweise auf 24 Stunden festgelegt ist, wird ein Datenblock, der zuletzt am Montag um 11:00 Uhr gelesen wurde und danach nicht mehr, am Dienstag um 11:00 Uhr aus dem Cache entfernt. Sie können eine TTL zwischen 24 Stunden und 7 Tagen festlegen. Wenn nicht angegeben, beträgt die TTL standardmäßig 24 Stunden.
Beim Schreiben aufnehmen
Durch das Aufnehmen von Daten in den Cache beim Schreiben von Objekten werden Arbeitslasten vom Typ „Lesen nach Schreiben“ beschleunigt, z. B. das Erstellen von Prüfpunkten und die Ausgabe von Datenvorbereitung für einen Trainingsjob. Wenn Sie einen Cache so konfigurieren, dass Daten beim Schreiben aufgenommen werden, werden Daten in den Cache geschrieben, sobald sie in den Bucket hochgeladen werden. Durch diesen proaktiven Ansatz werden anfängliche Cache-Fehler vermieden und Ihre Arbeitslasten profitieren vom ersten Lesen an von einem sofortigen Cache-Treffer.
Die Aufnahme beim Schreiben kann optional aktiviert werden, wenn Sie die Aufnahmekriterien eines vorhandenen Caches aktualisieren. Sie kann nicht bei der Erstellung des ersten Caches konfiguriert werden.
Hinweise zur Leistung
Fehlende Chunks: Wenn sich eine Anfrage auf mehrere Chunks bezieht und einige Chunks im Cache sind, andere jedoch nicht, ruft Rapid Cache die fehlenden Chunks transparent aus dem Quell-Bucket ab.
TTL und Entfernung: Die Richtlinien zur Gültigkeitsdauer (Time to Live, TTL) und zur Entfernung der am weitesten in der Vergangenheit verwendeten Einheiten (Least Recently Used, LRU) werden auch auf Chunks angewendet. Häufig verwendete Teile einer großen Datei bleiben möglicherweise im Cache, während selten verwendete Teile entfernt werden.
Preise
Informationen zu den Preisen für die Verwendung von Rapid Cache finden Sie unter Rapid Cache-Preise.
Kostenkontrollen
Maximieren Sie die folgenden Tipps, um zu erfahren, wie Sie die Kosten für die Ausführung von Caches minimieren können:
Bucket-Auswahl
Sie sollten nur Caches für Buckets erstellen, die Daten enthalten, die Sie im Cache speichern möchten.
Zonenauswahl
Sie sollten Caches nur in Zonen erstellen, in denen Ihre Arbeitslast vom Caching profitiert.
TTL-Einstellung
Sie sollten die minimale TTL angeben, die zum Speichern von Daten im Cache erforderlich ist. Die TTL kann unterbrechungsfrei geändert werden. Der Standardwert ist 1 Tag.
Cache deaktivieren
Sie können einen Cache deaktivieren, um ihn dauerhaft aus dem Dienst zu entfernen und alle zugehörigen Cachegebühren zu stoppen.
Vorteile
Wenn Sie Ihre Daten mit Rapid Cache im Cache speichern, profitieren Sie von folgenden Vorteilen:
Schnellen Datenzugriff erhalten: Mit Rapid Cache werden Ihre Daten in derselben Zone wie Ihre Rechenressourcen platziert und vollständig von SSD unterstützt. So können Ihre Arbeitslasten einen Durchsatz von bis zu 2,5 TB/s erreichen und die Latenz für schnellere Lesevorgänge wird reduziert.
Gebühren für die multiregionale Datenübertragung reduzieren: Für Daten, die aus dem Cache gelesen werden, fallen reduzierte Gebühren für die Datenübertragung an, verglichen mit Daten, die direkt aus einem multiregionalen Bucket gelesen werden.
Abrufgebühren senken: Abrufgebühren für Buckets in Nearline Storage, Coldline Storage und Archive Storage fallen nicht für Datenlesevorgänge aus dem Cache an.
Geringere Kosten für Lesevorgänge erhalten: Lesevorgänge, die über Rapid Cache bereitgestellt werden, sind günstiger als Vorgänge der Klasse B, die über einen Bucket in Standard Storage bereitgestellt werden.
Cachegröße automatisch skalieren: Das dynamische SSD-Caching von Rapid Cache wird automatisch anhand der Nutzung skaliert, ohne dass Sie eine Cachegröße angeben müssen.
Caches effizient nutzen: Rapid Cache kann für vorhandene Buckets aktiviert werden, ohne dass Änderungen an Ihren vorhandenen Anwendungen oder APIs erforderlich sind. Daten, die in Rapid Cache gespeichert sind, sind strikt konsistent.
Weitere Informationen zu den Preisen finden Sie unter Preise für Rapid Cache. Informationen zu Kontingenten finden Sie unter Rapid Cache-Kontingente.
Wann sollten Sie Rapid Cache verwenden?
Verwenden Sie Rapid Cache für Daten, die selten geändert und häufig gelesen werden, um das Lesen von Daten für Analysearbeitslasten sowie das Trainieren und Laden von KI/ML-Modellen zu beschleunigen.
Angenommen, Sie trainieren ein KI-Modell über viele Google Kubernetes Engine-Knoten hinweg, die alle wiederholt Daten lesen, die in Ihren Cloud Storage-Buckets gespeichert sind und in derselben Zone ausgeführt werden. Wenn Sie einen Cache in der Zone erstellen, in der Ihre Arbeitslast ausgeführt wird, bietet der Cache zusätzliche Bandbreite und hilft Ihnen, die Gebühren für die Datenübertragung zu reduzieren, die mit dem Lesen von Daten in multiregionalen Buckets verbunden sind. So können Sie größere, skalierte Arbeitslasten effizienter ausführen.
Rapid Cache verwenden, um Lesevorgänge für BigQuery zu beschleunigen
Rapid Cache kann verwendet werden, um Daten für Leseanfragen für Objekte bereitzustellen, die von BigQuery ausgegeben werden. Mit Rapid Cache können Sie das Lesen von Daten für Ihre Anwendungen beschleunigen und gleichzeitig die Kosteneffizienz optimieren.
BigQuery ist zwar ein regionaler Dienst, die zugrunde liegenden Rechenressourcen können jedoch aus Gründen des Load-Balancing gelegentlich zwischen Zonen verschoben werden. Es hat sich bewährt, Rapid Cache für eine BigQuery-Arbeitslast in allen Zonen einer Region zu aktivieren, damit ein verfügbarer Cache verwendet werden kann, falls sich die zugrunde liegenden Rechenressourcen in andere Zonen verschieben. Wenn ein Cache in einer Zone nicht verwendet wird, fallen keine zusätzlichen Kosten an, da Rapid Cache nutzungsbasiert abgerechnet wird. Wenn sich die Ressourcen einer Arbeitslast in eine andere Zone verschieben, müssen die Daten im Cache der neuen Zone noch einmal aufgenommen werden. Dadurch können einmalige Kosten für die Datenaufnahme entstehen.
Rapid Cache-Recommender
Der Rapid Cache-Recommender bietet Empfehlungen und Statistiken zum Erstellen von Caches in Bucket-Zonen-Paaren, indem er Ihre Datennutzung und Ihren Speicher analysiert. Übersichtsinformationen und Anleitungen zur Verwendung des Rapid Cache-Recommenders finden Sie unter Rapid Cache-Recommender.
Cache-Vorgänge
In diesem Abschnitt werden die Vorgänge beschrieben, die Sie für Rapid Cache-Caches ausführen können. Einige Vorgänge sind asynchron und geben einen Vorgang mit langer Ausführungszeit zurück, während andere Vorgänge synchron sind, bei denen die Vorgänge sofort ausgeführt werden und eine AnywhereCache-Ressource zurückgeben.
Cache erstellen
Wenn Sie einen Cache erstellen, hat er den Status WIRD ERSTELLT und wechselt in den Status WIRD AUSGEFÜHRT, sobald er aktiv ausgeführt wird. Der Vorgang des Erstellens des Caches kann bis zu 48 Stunden dauern. Danach überschreitet der Vorgang das Zeitlimit.
Die AnywhereCaches Create API ist asynchron. Bei einem Erstellungsvorgang wird ein Vorgang mit langer Ausführungszeit zurückgegeben. Der Vorgang mit langer Ausführungszeit gibt den Status des Erstellungsvorgangs an und ermöglicht es Ihnen, den Vorgang abzubrechen, bevor er abgeschlossen ist.
Cache aktualisieren
Sie können die TTL oder das Aufnahmeverhalten eines Caches im Status WIRD AUSGEFÜHRT aktualisieren. Wenn ein Cache gerade aktualisiert wird, ergibt das Feld pending_update den Wert true. Solange das Feld pending_update den Wert true ergibt, kann der Cache nicht noch einmal aktualisiert werden.
Ein Cache im Status WIRD ERSTELLT oder DEAKTIVIERT kann nicht aktualisiert werden. Die AnywhereCaches Update API ist asynchron und gibt einen Vorgang mit langer Ausführungszeit zurück.
Wenn die Aktualisierung der TTL eines Caches abgeschlossen ist, wird die neue TTL sofort auf vorhandene und neue Daten im Cache angewendet.
Cache abrufen
Wenn Sie einen Cache abrufen, gibt Rapid Cache den Status und die Konfiguration der Cache-Instanz zurück. Die AnywhereCaches Get API ist synchron und gibt eine AnywhereCache-Ressource zurück.
Caches auflisten
Sie können eine Liste der zugehörigen Caches für einen bestimmten Bucket zurückgeben. Die AnywhereCaches List API ist synchron und unterstützt die Paginierung.
Cache deaktivieren
Sie können einen Cache deaktivieren, um ihn dauerhaft aus der Konfiguration Ihres Buckets zu entfernen. Wenn Sie einen Cache deaktivieren, wechselt er in den Status DEAKTIVIERT. In diesem Zustand können Sie weiterhin vorhandene Daten aus dem Cache lesen, aber keine neuen Daten in den Cache aufnehmen.
Nachdem Sie einen Cache deaktiviert haben, haben Sie einen 1-stündigen Kulanzzeitraum, um die Deaktivierung abzubrechen, indem Sie den Cache fortsetzen. Nach Ablauf dieses 1-stündigen Kulanzzeitraums wird der Cache gelöscht. Wenn der Cache gelöscht wird, werden alle Daten im Cache entfernt und der Cache wird aus dem Bucket entfernt.
Während des 1-stündigen Zeitraums, bevor der Cache gelöscht wird, können Sie den Status DEAKTIVIERT rückgängig machen, indem Sie den Cache fortsetzen. Der Cache wird dann im Status WIRD AUSGEFÜHRT fortgesetzt.
Die AnywhereCaches Disable API ist synchron und gibt eine AnywhereCache-Ressource zurück.
Cache fortsetzen
Sie können Caches fortsetzen, die den Status DEAKTIVIERT haben, sofern der deaktivierte Cache innerhalb des 1-stündigen Kulanzzeitraums liegt. Nach Ablauf des 1-stündigen Kulanzzeitraums wird der Vorgang zum Fortsetzen nach dem Best-Effort-Prinzip ausgeführt, da der Cache jederzeit nach Ablauf des Kulanzzeitraums gelöscht werden kann. Sobald ein Cache fortgesetzt wurde, wechselt er in den Status WIRD AUSGEFÜHRT.
Die AnywhereCaches Resume API ist synchron und gibt eine AnywhereCache-Ressource zurück.
Limits und Einschränkungen
Wenn Sie einen Bucket löschen möchten, müssen Sie zuerst alle zugehörigen Caches löschen. Die einzige Ausnahme ist das Löschen eines Buckets über die Google Cloud Console. Dabei werden alle zugehörigen Caches zusammen mit dem Bucket gelöscht.
Wenn Sie Vorgänge zum Erstellen, Deaktivieren, Fortsetzen oder Aktualisieren des Caches ausführen, beschränken Sie die Rate der Vorgänge auf maximal einen Vorgang pro Sekunde. Wenn Sie mehr als einen Vorgang pro Sekunde ausführen, kann dies zu Fehlern führen.
Rapid Cache ist kein langlebiger Speicher. Daten können in verschiedenen Szenarien aus dem Cache entfernt werden. Ein Szenario ist, wenn die Größe des Cache automatisch angepasst wird, um sicherzustellen, dass genügend Ressourcen für Ihre Arbeitslasten verfügbar sind. In diesem Fall werden einige Daten möglicherweise gemäß einem Algorithmus der am längsten zurückliegenden Verwendung (least recently used, LRU) entfernt, bis der Rapid Cache-Dienst die Cachegröße erhöht hat.
Ihre Daten bleiben in jedem Fall sicher in Ihrem Quell-Bucket gespeichert. Wenn Daten aus anderen Gründen aus dem Cache entfernt werden als dem Ablauf der TTL, versucht der Rapid Cache-Dienst, die Daten transparent und ohne zusätzliche Kosten für Sie wieder in den Cache aufzunehmen. Wenn die Daten nicht transparent neu aufgenommen werden können oder aufgrund des Ablaufs der TTL gelöscht wurden, nimmt der Rapid Cache-Dienst die Daten beim ersten Lesevorgang neu auf.
Empfehlungen und Statistiken, die vom Rapid Cache-Recommender generiert werden, können nicht mit BigQuery gelesen werden.
Beheben von Problemen durch vorübergehenden Mangel an Ressourcen
In den folgenden Abschnitten wird beschrieben, wie Sie Probleme beheben, wenn ein vorübergehender Ressourcenmangel auftritt, bei dem in einer bestimmten Zone nicht genügend SSD-Kapazität oder Bereitstellungskapazität vorhanden ist, um einen Cache zu erstellen, die Größe eines Caches zu erhöhen oder das Bandbreitenlimit eines Caches zu erhöhen.
Fehler beim Erstellen eines neuen Caches
Rapid Cache kann in einer bestimmten Zone keinen neuen Cache erstellen, weil entweder die SSD-Kapazität oder die Durchsatz-Bereitstellungsressourcen nicht ausreichen. Dies führt zu einem vorübergehenden Ressourcenmangel. In diesem Zeitraum versucht Rapid Cache bis zu 48 Stunden lang, den neuen Cache zu erstellen. Wenn innerhalb von 48 Stunden Ressourcen verfügbar werden, schließt Rapid Cache die Anfrage zum Erstellen des Caches erfolgreich ab. Wenn Ressourcen nicht innerhalb von 48 Stunden verfügbar werden, schlägt die Anfrage zur Erstellung des Caches fehl.
Fehlerbehebung: Um Störungen beim Caching zu vermeiden, können Sie den Vorgang zum Erstellen des Caches manuell abbrechen und einen neuen Cache in einer anderen Zone erstellen, in der möglicherweise Kapazität verfügbar ist. Informationen zum Überwachen oder Abbrechen eines Vorgangs zum Erstellen eines Caches finden Sie unter Vorgänge mit langer Ausführungszeit verwenden.
Cache-Größe kann nicht erhöht werden
Rapid Cache kann die Größe eines Caches nicht erhöhen, wenn die erforderliche SSD-Kapazität in der Zone des Caches nicht verfügbar ist.
Rapid Cache bietet zwar automatische On-Demand-Cache-Größenerhöhungen diese sind jedoch von der Verfügbarkeit der SSD-Kapazität abhängig. Wenn die SSD-Kapazität nicht verfügbar ist, wenn die Anfrage zur automatischen Erhöhung der Cachegröße gestellt wird, wird die Anfrage von Rapid Cache so lange gesendet, bis der vorübergehende Ressourcenmangel endet oder eine Erhöhung der Cachegröße nicht mehr erforderlich ist.
Bei einem vorübergehenden Ressourcenmangel werden neue Daten aufgenommen und vorhandene Daten im Cache werden auf Grundlage der am wenigsten verwendeten Daten entfernt. Bei Caches, die groß genug sind, um die meisten aktiven Daten zu speichern, werden die Cache-Messwerte kaum oder gar nicht beeinträchtigt. Bei Caches mit weniger Kapazität als die Menge an aktiven Daten kann es vorkommen, dass Daten häufiger entfernt und wieder aufgenommen werden als bei Caches, die nicht von Ressourcenmängeln betroffen sind. Wenn die tatsächliche Größe Ihres Cache viel kleiner ist als die benötigte Kapazität, kann es zu folgenden Problemen kommen, die mit Ressourcenmängeln verbunden sind:
- Ein niedrigeres Cache-Bandbreitenlimit, ein niedrigerer Cache-Durchsatz, ein höherer Verbrauch des Bandbreitenkontingents für die Datenübertragung und mögliche Auswirkungen auf andere Messwerte
- Die Abrechnung kann auf folgende Weise beeinträchtigt sein:
- Höhere Kosten durch die Cache-Aufnahmegebühr
- Geringere Kosten durch die Cache-Speichergebühr
- Geringere Kosten durch die Gebühr für die ausgehende Cache-Datenübertragung
- Geringere Kosten durch die Gebühren für den ausgehenden Cache-Datenübertragungsvorgang
- Höhere Kosten durch die Gebühr für die multiregionale Datenübertragung
- Höhere Kosten durch die Verwendung von Vorgängen der Klasse B
Informationen zu diesen Gebühren finden Sie unter Rapid Cache-Preise.
Fehlerbehebung: Um bei einem vorübergehenden Ressourcenmangel optimale Ergebnisse zu erzielen, empfehlen wir, Ihre Caches zu überwachen und unnötige Caches oder Arbeitslasten nach Bedarf zu deaktivieren.
Bandbreitenlimit eines Cache kann nicht hochskaliert werden
Ein Mangel an Cache-Bandbreitenlimit kann vorübergehend auftreten, wenn die Cachegröße erhöht wird und die Durchsatz-Bereitstellungsressourcen in einer bestimmten Zone nicht ausreichen, um das Cache-Bandbreitenlimit vorhandener Caches mit 20 Gbit/s pro TiB zu skalieren. Bei einem Mangel an Cache-Bandbreite erlaubt Rapid Cache nicht, dass das Cache-Bandbreitenlimit von mit 20 Gbit/s pro TiB an Daten skaliert wird, der Cache verarbeitet jedoch weiterhin Leseanfragen. Sie können mehr Cache-Bandbreite anfordern, indem Sie sich an Ihren Technical Account Manager oder Google-Ansprechpartner wenden. Bei einem Mangel an verfügbarer Cache-Bandbreite kann es zu einem Anstieg des Bandbreitenverbrauchs im ausgehenden Datentraffic Ihres Buckets kommen.
Fehlerbehebung: Um bei einem vorübergehenden Ressourcenmangel optimale Ergebnisse zu erzielen, empfehlen wir, Ihre Caches zu überwachen und unnötige Caches oder Arbeitslasten nach Bedarf zu deaktivieren.