Penyimpanan data Hadoop

Managed Service untuk Apache Spark terintegrasi dengan Apache Hadoop dan Hadoop Distributed File System (HDFS). Fitur dan pertimbangan berikut dapat menjadi penting saat memilih opsi penyimpanan data dan komputasi untuk cluster dan tugas Managed Service untuk Apache Spark:

  • HDFS dengan Cloud Storage: Managed Service untuk Apache Spark menggunakan Hadoop Distributed File System (HDFS) untuk penyimpanan. Selain itu, Managed Service untuk Apache Spark secara otomatis menginstal konektor Cloud Storage yang kompatibel dengan HDFS, yang memungkinkan penggunaan Cloud Storage secara paralel dengan HDFS. Data dapat dipindahkan ke dalam dan ke luar cluster melalui upload dan download ke HDFS atau Cloud Storage.
  • Disk VM:
    • Secara default, jika tidak ada SSD lokal yang disediakan, data HDFS dan data shuffle perantara disimpan di disk boot VM, yang merupakan Persistent Disk.
    • Jika Anda menggunakan SSD lokal, data HDFS dan data shuffle perantara akan disimpan di SSD.
    • Ukuran dan jenis persistent disk (PD) memengaruhi performa dan ukuran VM, baik menggunakan HDFS maupun Cloud Storage untuk penyimpanan data.
    • Disk Boot VM akan dihapus saat cluster dihapus.