Exporte os resultados da consulta para o Amazon S3
Este documento descreve como exportar o resultado de uma consulta executada numa tabela do BigLake para o seu contentor do Amazon Simple Storage Service (Amazon S3).
Para obter informações sobre como os dados fluem entre o BigQuery e o Amazon S3, consulte Fluxo de dados ao exportar dados.
Limitações
Para ver uma lista completa das limitações aplicáveis às tabelas BigLake com base no Amazon S3 e no armazenamento de blobs, consulte o artigo Limitações.
Antes de começar
Certifique-se de que tem os seguintes recursos:
- Uma associação para aceder ao seu contentor do Amazon S3.
- Uma tabela do BigLake do Amazon S3.
- A política de gestão de acessos e identidade (IAM) dos Amazon Web Services (AWS) correta:
- Tem de ter a autorização
PutObjectpara escrever dados no contentor do Amazon S3. Para mais informações, consulte o artigo Crie uma política de IAM do AWS para o BigQuery.
- Tem de ter a autorização
- Se estiver a usar o modelo de preços baseado na capacidade, certifique-se de que ativou a API BigQuery Reservation para o seu projeto. Para informações sobre os preços, consulte os preços do BigQuery Omni.
Exporte os resultados da consulta
O BigQuery Omni escreve na localização do Amazon S3 especificada, independentemente do conteúdo existente. A consulta de exportação pode substituir os dados existentes ou misturar o resultado da consulta com os dados existentes. Recomendamos que exporte o resultado da consulta para um contentor do Amazon S3 vazio.
Para executar uma consulta, selecione uma das seguintes opções:
SQL
No campo Editor de consultas, introduza uma consulta de exportação do GoogleSQL. O GoogleSQL é a sintaxe predefinida na Google Cloud consola.
Na Google Cloud consola, aceda à página BigQuery.
No editor de consultas, introduza a seguinte declaração:
EXPORT DATA WITH CONNECTION `CONNECTION_REGION.CONNECTION_NAME` OPTIONS(uri="s3://BUCKET_NAME/PATH", format="FORMAT", ...) AS QUERY
Substitua o seguinte:
CONNECTION_REGION: a região onde a associação foi criada.CONNECTION_NAME: o nome da associação que criou com a autorização necessária para escrever no contentor do Amazon S3.BUCKET_NAME: o contentor do Amazon S3 onde quer escrever os dados.PATH: o caminho onde quer escrever o ficheiro exportado. Tem de conter exatamente um caráter universal*em qualquer parte do diretório folha da string de caminho, por exemplo,../aa/*,../aa/b*c,../aa/*bce../aa/bc*. O BigQuery substitui*por0000..Nconsoante o número de ficheiros exportados. O BigQuery determina a quantidade e os tamanhos dos ficheiros. Se o BigQuery decidir exportar dois ficheiros,*no nome do ficheiro do primeiro ficheiro é substituído por000000000000e*no nome do ficheiro do segundo ficheiro é substituído por000000000001.FORMAT: os formatos suportados sãoJSON,AVRO,CSVePARQUET.QUERY: a consulta para analisar os dados que estão armazenados numa tabela do BigLake. O conjunto de dados que contém a tabela do BigLake usada na consulta tem de estar localizado na mesma região do Amazon S3 que o contentor do Amazon S3 de destino.Clique em Executar.
Para mais informações sobre como executar consultas, consulte o artigo Execute uma consulta interativa.
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do BigQuery com bibliotecas cliente. Para mais informações, consulte a API Java BigQuery documentação de referência.
Para se autenticar no BigQuery, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para bibliotecas de cliente.
Resolução de problemas
Se receber um erro relacionado com quota failure, verifique se reservou capacidade para as suas consultas. Para mais informações sobre reservas de horários, consulte a secção Antes de começar neste documento.
O que se segue?
- Saiba mais acerca do BigQuery Omni.
- Saiba como exportar dados de tabelas.
- Saiba como consultar dados armazenados no Amazon S3.
- Saiba como configurar o VPC Service Controls para o BigQuery Omni.