Para ler do Apache Iceberg para o Dataflow, use o conetor de I/O gerido.
A E/S gerida suporta as seguintes capacidades para o Apache Iceberg:
| Catálogos |
|
|---|---|
| Capacidades de leitura | Leitura em lote |
| Capacidades de escrita |
|
Para tabelas do BigQuery para Apache Iceberg,
use o
conetor BigQueryIO com a API BigQuery Storage. A tabela já tem de existir. A criação de tabelas dinâmicas não é suportada.
Dependências
Adicione as seguintes dependências ao seu projeto:
Java
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-managed</artifactId>
<version>${beam.version}</version>
</dependency>
<dependency>
<groupId>org.apache.beam</groupId>
<artifactId>beam-sdks-java-io-iceberg</artifactId>
<version>${beam.version}</version>
</dependency>
Exemplo
O exemplo seguinte lê a partir de uma tabela do Apache Iceberg e escreve os dados em ficheiros de texto.
Java
Para se autenticar no Dataflow, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
O que se segue?
- Escrever no Apache Iceberg.
- Streaming de gravação no Apache Iceberg com o catálogo REST do BigLake.
- Saiba mais sobre a E/S gerida.