BigLake REST 카탈로그를 사용하여 Dataflow에서 Apache Iceberg로 쓰려면 관리형 I/O 커넥터를 사용합니다.
관리형 I/O는 Apache Iceberg의 다음 기능을 지원합니다.
| 카탈로그 |
|
|---|---|
| 읽기 기능 | 일괄 읽기 |
| 쓰기 기능 |
|
Apache Iceberg용 BigQuery 테이블의 경우 BigQuery Storage API와 함께 BigQueryIO 커넥터를 사용합니다. 테이블이 이미 있어야 합니다. 동적 테이블을 만들 수 없습니다.
기본 요건
BigLake 설정 Iceberg REST 카탈로그와 함께 BigLake Metastore 사용에 따라 필요한 권한으로 Google Cloud Platform 프로젝트를 구성합니다. 해당 페이지에 설명된 BigLake Iceberg REST 카탈로그의 제한사항을 이해하고 있는지 확인합니다.
종속 항목
다음 종속 항목을 프로젝트에 추가합니다.
자바
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.iceberg</groupId>
<artifactId>iceberg-gcp</artifactId>
<version>${iceberg.version}</version>
</dependency>
예
다음 예에서는 BigLake Metastore에서 지원하는 REST 카탈로그를 사용하여 Apache Iceberg 테이블에 데이터를 쓰는 스트리밍 파이프라인을 보여줍니다.
Java
Dataflow에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
다음 단계
- BigLake REST 카탈로그를 사용하여 Apache Iceberg에서 CDC 읽기
- 관리형 I/O 자세히 알아보기
- BigLake REST 카탈로그에 대해 자세히 알아보기