כדי לקרוא מ-Apache Iceberg ל-Dataflow, משתמשים במחבר I/O מנוהל.
שירות מנוהל לקלט/פלט תומך ביכולות הבאות של Apache Iceberg:
| קטלוגים |
|
|---|---|
| יכולות קריאה | קריאה באצווה |
| יכולות כתיבה |
|
בטבלאות BigQuery ל-Apache Iceberg, משתמשים במחבר BigQueryIO עם BigQuery Storage API. הטבלה צריכה כבר להיות קיימת. יצירת טבלה דינמית לא נתמכת.
תלויות
מוסיפים את יחסי התלות הבאים לפרויקט:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
דוגמה
בדוגמה הבאה מתבצעת קריאה מטבלת Apache Iceberg וכתיבה של הנתונים לקובצי טקסט.
Java
כדי לבצע אימות ב-Dataflow, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לסביבת פיתוח מקומית.
המאמרים הבאים
- כתיבה ל-Apache Iceberg.
- כתיבת סטרימינג ל-Apache Iceberg באמצעות קטלוג BigLake REST.
- מידע נוסף על קלט/פלט מנוהל