Staging-Buckets für Serverless for Apache Spark

In diesem Dokument finden Sie Informationen zu Serverless for Apache Spark-Staging-Buckets. Serverless for Apache Spark erstellt einen Cloud Storage-Staging-Bucket in Ihrem Projekt oder verwendet einen vorhandenen Staging-Bucket aus vorherigen Batch erstellungsanfragen wieder. Dies ist der Standard-Bucket, der von Dataproc in Compute Engine-Clustern erstellt wird. Weitere Informationen finden Sie unter Dataproc-Staging- und temporäre Buckets.

Serverless for Apache Spark speichert Arbeitslastabhängigkeiten, Konfigurationsdateien und die Konsolenausgabe des Jobtreibers im Staging-Bucket.

Serverless for Apache Spark legt regionale Staging-Buckets an Cloud Storage-Standorten entsprechend der Compute Engine-Zone fest, in der Ihre Arbeitslast bereitgestellt wird. Anschließend werden diese Buckets auf Projektebene pro Standort erstellt und verwaltet. Von Serverless for Apache Spark erstellte Staging-Buckets werden für Arbeitslasten in derselben Region freigegeben und mit einer Cloud Storage Aufbewahrungsdauer für das vorläufige Löschen von 0 Sekunden erstellt.