Staging-Buckets für Serverless for Apache Spark
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Dokument finden Sie Informationen zu Serverless for Apache Spark-Staging-Buckets.
Serverless for Apache Spark erstellt einen Cloud Storage-Staging-Bucket in Ihrem Projekt
oder verwendet einen vorhandenen Staging-Bucket aus vorherigen Batch
erstellungsanfragen wieder. Dies ist der Standard-Bucket, der von
Dataproc in Compute Engine-Clustern erstellt wird. Weitere Informationen finden Sie unter
Dataproc-Staging- und temporäre Buckets.
Serverless for Apache Spark speichert Arbeitslastabhängigkeiten, Konfigurationsdateien und
die Konsolenausgabe des Jobtreibers im Staging-Bucket.
Serverless for Apache Spark legt regionale Staging-Buckets an
Cloud Storage-Standorten
entsprechend der Compute Engine-Zone fest, in der Ihre Arbeitslast bereitgestellt wird.
Anschließend werden diese Buckets auf Projektebene pro Standort erstellt und verwaltet.
Von Serverless for Apache Spark erstellte Staging-Buckets werden für
Arbeitslasten in derselben Region freigegeben und mit einer
Cloud Storage Aufbewahrungsdauer für das vorläufige Löschen
von 0 Sekunden erstellt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2026-01-24 (UTC)."],[],[]]