Ferramenta: get_table_info
Recebe informações de metadados sobre uma tabela do BigQuery.
O exemplo a seguir demonstra como usar curl para invocar a ferramenta get_table_info MCP.
| Solicitação curl |
|---|
curl --location 'https://bigquery.googleapis.com/mcp' \ --header 'content-type: application/json' \ --header 'accept: application/json, text/event-stream' \ --data '{ "method": "tools/call", "params": { "name": "get_table_info", "arguments": { // provide these details according to the tool's MCP specification } }, "jsonrpc": "2.0", "id": 1 }' |
Esquema de entrada
Solicitação de uma tabela.
| Representação JSON |
|---|
{ "projectId": string, "datasetId": string, "tableId": string } |
| Campos | |
|---|---|
projectId |
Obrigatório. ID do projeto da solicitação de tabela. |
datasetId |
Obrigatório. ID do conjunto de dados da solicitação de tabela. |
tableId |
Obrigatório. ID da tabela da solicitação. |
Esquema de saída
| Representação JSON |
|---|
{ "kind": string, "etag": string, "id": string, "selfLink": string, "tableReference": { object ( |
| Campos | |
|---|---|
kind |
O tipo de ID de recurso. |
etag |
Apenas saída. Um hash deste recurso. |
id |
Apenas saída. Um ID opaco que identifica exclusivamente a tabela. |
selfLink |
Apenas saída. Um URL que pode ser usado para acessar esse recurso novamente. |
tableReference |
Obrigatório. Referência que descreve o ID da tabela. |
friendlyName |
Opcional. Um nome descritivo para a tabela. |
description |
Opcional. Uma descrição amigável desta tabela. |
labels |
Os rótulos associados a esta tabela. Você pode usá-los para organizar e agrupar suas tabelas. As chaves e os valores de rótulo não podem ter mais de 63 caracteres e só podem conter letras minúsculas, caracteres numéricos, sublinhados e traços. Caracteres internacionais são permitidos. Os valores de rótulo são opcionais. As chaves de rótulo precisam começar com uma letra, e cada rótulo na lista precisa ter uma chave diferente. Um objeto com uma lista de pares |
schema |
Opcional. Descreve o esquema desta tabela. |
timePartitioning |
Se especificado, configura o particionamento baseado em tempo para essa tabela. |
rangePartitioning |
Se especificado, configura o particionamento por intervalo para essa tabela. |
clustering |
Especificação de clustering para a tabela. Precisa ser especificado com o particionamento baseado em tempo. Os dados na tabela serão particionados e, em seguida, agrupados. |
requirePartitionFilter |
Opcional. Se definido como "true", as consultas nessa tabela exigem um filtro de partição que possa ser usado para especificar a eliminação de partições. |
numBytes |
Apenas saída. O tamanho dessa tabela em bytes lógicos, excluindo os dados no buffer de streaming. |
numPhysicalBytes |
Apenas saída. O tamanho físico da tabela em bytes. Isso inclui o armazenamento usado para viagem no tempo. |
numLongTermBytes |
Apenas saída. O número de bytes lógicos na tabela considerados "armazenamento de longo prazo". |
numRows |
Apenas saída. O número de linhas de dados nesta tabela, excluindo os dados no buffer de streaming. |
creationTime |
Apenas saída. A hora em que esta tabela foi criada, em milissegundos, desde o Unix epoch. |
expirationTime |
Opcional. O momento em que esta tabela expira, em milissegundos desde a época. Se ausente, a tabela persistirá indefinidamente. Tabelas expiradas serão excluídas, e seu espaço reaproveitado. A propriedade defaultTableExpirationMs do conjunto de dados encapsulado pode ser usada para definir um expirationTime padrão em tabelas recém-criadas. |
lastModifiedTime |
Apenas saída. O horário em que a tabela foi modificada pela última vez, em milissegundos desde o período. |
type |
Apenas saída. Descreve o tipo de tabela. Os valores a seguir são compatíveis:
O valor padrão é |
view |
Opcional. A definição da visualização. |
materializedView |
Opcional. A definição da visualização materializada. |
materializedViewStatus |
Apenas saída. O status da visualização materializada. |
externalDataConfiguration |
Opcional. Descreve o formato de dados, o local e outras propriedades de uma tabela armazenada fora do BigQuery. Ao definir essas propriedades, a fonte de dados pode ser consultada como se fosse uma tabela do BigQuery padrão. |
biglakeConfiguration |
Opcional. Especifica a configuração de uma tabela do BigQuery para Apache Iceberg. |
managedTableType |
Opcional. Se definido, substitui o tipo de tabela gerenciada padrão configurado no conjunto de dados. |
location |
Apenas saída. A localização geográfica em que a tabela reside. Esse valor é herdado do conjunto de dados. |
streamingBuffer |
Apenas saída. Contém informações sobre o buffer de streaming da tabela, se houver. Esse campo não vai aparecer se a tabela não estiver sendo transmitida ou se não houver dados no buffer de streaming. |
encryptionConfiguration |
Configuração de criptografia personalizada (por exemplo, chaves do Cloud KMS). |
snapshotDefinition |
Apenas saída. Contém informações sobre o snapshot. Esse valor é definido na criação do instantâneo. |
defaultCollation |
Opcional. Define a especificação de ordenação padrão de novos campos STRING na tabela. Durante a criação ou atualização da tabela, se um campo STRING for adicionado a ela sem uma ordenação explícita, a tabela vai herdar a ordenação padrão. Uma mudança nesse campo afeta apenas os campos adicionados depois e não altera os campos atuais. Os valores a seguir são compatíveis:
|
defaultRoundingMode |
Opcional. Define a especificação do modo de arredondamento padrão de novos campos decimais (NUMERIC ou BIGNUMERIC) na tabela. Durante a criação ou atualização da tabela, se um campo decimal for adicionado a ela sem um modo de arredondamento explícito especificado, o campo vai herdar o modo de arredondamento padrão da tabela. Mudar esse campo não afeta os campos atuais. |
cloneDefinition |
Apenas saída. Contém informações sobre o clone. Esse valor é definido pela operação de clonagem. |
numTimeTravelPhysicalBytes |
Apenas saída. Número de bytes físicos usados pelo armazenamento de viagem no tempo (dados excluídos ou alterados). Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
numTotalLogicalBytes |
Apenas saída. Número total de bytes lógicos na tabela ou visualização materializada. |
numActiveLogicalBytes |
Apenas saída. Número de bytes lógicos com menos de 90 dias. |
numLongTermLogicalBytes |
Apenas saída. Número de bytes lógicos com mais de 90 dias. |
numCurrentPhysicalBytes |
Apenas saída. Número de bytes físicos usados pelo armazenamento de dados ativos atual. Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
numTotalPhysicalBytes |
Apenas saída. O tamanho físico da tabela em bytes. Isso também inclui o armazenamento usado para viagem no tempo. Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
numActivePhysicalBytes |
Apenas saída. Número de bytes físicos com menos de 90 dias. Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
numLongTermPhysicalBytes |
Apenas saída. Número de bytes físicos com mais de 90 dias. Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
numPartitions |
Apenas saída. O número de partições presentes na tabela ou na visualização materializada. Esses dados não são mantidos em tempo real e podem atrasar de alguns segundos a alguns minutos. |
maxStaleness |
Opcional. A desatualização máxima dos dados que podem ser retornados quando a tabela (ou MV desatualizada) é consultada. Inatividade codificada como uma string do tipo IntervalValue do SQL. |
restrictions |
Opcional. Apenas saída. Configuração de restrição para a tabela. Se definido, restringe determinados acessos na tabela com base na configuração. Consulte Saída de dados para mais detalhes. |
tableConstraints |
Opcional. Informações de chave primária e externa das tabelas |
resourceTags |
Opcional. As tags anexadas a esta tabela. As chaves de tag são exclusivas em todo o mundo. A chave de tag precisa estar no formato com namespace, por exemplo, "123456789012/environment", em que 123456789012 é o ID da organização ou do recurso de projeto pai dessa chave de tag. O valor da tag precisa ser o nome abreviado, por exemplo, "Production". Consulte Definições de tags para mais detalhes. Um objeto com uma lista de pares |
tableReplicationInfo |
Opcional. Informações de replicação da tabela criada com DDL |
replicas[] |
Opcional. Apenas saída. Referências de tabela de todas as réplicas ativas no momento. |
externalCatalogTableOptions |
Opcional. Opções que definem uma tabela compatível com código aberto. |
Campo de união
|
|
partitionDefinition |
Opcional. As informações de partição para todos os formatos de tabela, incluindo tabelas particionadas gerenciadas, tabelas particionadas do Hive, tabelas particionadas do Iceberg e tabelas particionadas do metastore. Esse campo só é preenchido para tabelas particionadas da metastore. Para outros formatos de tabela, esse é um campo somente de saída. |
| Representação JSON |
|---|
{ "projectId": string, "datasetId": string, "tableId": string, "projectIdAlternative": [ string ], "datasetIdAlternative": [ string ], "tableIdAlternative": [ string ] } |
| Campos | |
|---|---|
projectId |
Obrigatório. O ID do projeto que contém a tabela. |
datasetId |
Obrigatório. O ID do conjunto de dados que contém a tabela. |
tableId |
Obrigatório. O ID da tabela. O ID pode conter caracteres Unicode nas categorias L (letra), M (marca), N (número), Pc (conector, incluindo sublinhado), Pd (travessão) e Zs (espaço). Para mais informações, consulte Categoria geral. O comprimento máximo é de 1.024 caracteres. Algumas operações permitem adicionar um sufixo ao ID da tabela com um decorador de partição, como |
projectIdAlternative[] |
Este campo não deve ser usado. |
datasetIdAlternative[] |
Este campo não deve ser usado. |
tableIdAlternative[] |
Este campo não deve ser usado. |
| Representação JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
O valor da string. |
| Representação JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representação JSON |
|---|
{ "fields": [ { object ( |
| Campos | |
|---|---|
fields[] |
Descreve os campos na tabela. |
foreignTypeInfo |
Opcional. Especifica metadados da definição do tipo de dados externo no esquema de campo ( |
| Representação JSON |
|---|
{ "name": string, "type": string, "mode": string, "fields": [ { object ( |
| Campos | |
|---|---|
name |
Obrigatório. Nome do campo. O nome precisa conter apenas letras (a-z, A-Z), números (0-9) ou sublinhados (_) e começar com uma letra ou sublinhado. O tamanho máximo é de 300 caracteres. |
type |
Obrigatório. O tipo de dados do campo. Os possíveis valores incluem:
O uso de RECORD/STRUCT indica que o campo contém um esquema aninhado. |
mode |
Opcional. O modo do campo. Os valores possíveis incluem NULLABLE, REQUIRED e REPEATED. O valor padrão é NULLABLE. |
fields[] |
Opcional. Descreve os campos de esquema aninhados se a propriedade "type" estiver definida como "RECORD". |
description |
Opcional. A descrição do campo. O comprimento máximo é de 1.024 caracteres. |
policyTags |
Opcional. As tags de política anexadas a esse campo, usadas para controle de acesso no nível do campo. Se não for definido, o padrão será "policy_tags" vazio. |
dataPolicies[] |
Opcional. Políticas de dados anexadas a este campo, usadas para controle de acesso no nível do campo. |
nameAlternative[] |
Este campo não deve ser usado. |
maxLength |
Opcional. Comprimento máximo dos valores deste campo para STRINGS ou BYTES. Se max_length não for especificado, nenhuma restrição de tamanho máximo será imposta a esse campo. Se type = "STRING", max_length representa o comprimento máximo em UTF-8 das strings nesse campo. Se type = "BYTES", max_length representa o número máximo de bytes neste campo. Não é possível definir esse campo se o tipo for diferente de "STRING" e "BYTES". |
precision |
Opcional. Restrições de precisão (número máximo de dígitos totais na base 10) e escala (número máximo de dígitos na parte fracionária na base 10) para valores desse campo para NUMERIC ou BIGNUMERIC. Não é possível definir precisão ou escala se o tipo não for "NUMERIC" nem "BIGNUMERIC". Se a precisão e a escala não forem especificadas, nenhuma restrição de intervalo de valores será imposta a esse campo, desde que os valores sejam permitidos pelo tipo. Os valores desse campo NUMERIC ou BIGNUMERIC precisam estar nesse intervalo quando:
Valores aceitáveis para precisão e escala, se ambos forem especificados:
Valores aceitáveis para precisão se apenas a precisão for especificada, mas não a escala (e, portanto, a escala for interpretada como igual a zero):
Se a escala for especificada, mas não a precisão, ela será inválida. |
scale |
Opcional. Consulte a documentação para saber mais sobre a precisão. |
timestampPrecision |
Opcional. Precisão (número máximo de dígitos totais na base 10) para segundos do tipo TIMESTAMP. Os valores possíveis incluem: * 6 (padrão, para o tipo TIMESTAMP com precisão de microssegundos) * 12 (para o tipo TIMESTAMP com precisão de picossegundos) |
roundingMode |
Opcional. Especifica o modo de arredondamento a ser usado ao armazenar valores do tipo NUMERIC e BIGNUMERIC. |
collation |
Opcional. A ordenação de campos só pode ser definida quando o tipo de campo é STRING. Os valores a seguir são compatíveis:
|
defaultValueExpression |
Opcional. Uma expressão SQL para especificar o valor padrão desse campo. |
rangeElementType |
Opcional. O subtipo do INTERVALO, se o tipo deste campo for INTERVALO. Se o tipo for INTERVALO, este campo será obrigatório. Os valores para o tipo de elemento de campo podem ser os seguintes:
|
foreignTypeDefinition |
Opcional. Definição do tipo de dados estrangeiro. Válido apenas para campos de esquema de nível superior (não aninhados). Se o tipo for FOREIGN, este campo será obrigatório. |
| Representação JSON |
|---|
{ "names": [ string ] } |
| Campos | |
|---|---|
names[] |
Uma lista de nomes de recursos de tag de política. Por exemplo, "projects/1/locations/eu/taxonomies/2/policyTags/3". No momento, é permitida apenas uma tag de política. |
| Representação JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de união
|
|
name |
Nome do recurso da política de dados no formato projects/project_id/locations/location_id/dataPolicies/data_policy_id. |
| Representação JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
O valor int64. |
| Representação JSON |
|---|
{ "type": string } |
| Campos | |
|---|---|
type |
Obrigatório. O tipo de um elemento de campo. Veja mais informações em |
| Representação JSON |
|---|
{
"typeSystem": enum ( |
| Campos | |
|---|---|
typeSystem |
Obrigatório. Especifica o sistema que define o tipo de dados externo. |
| Representação JSON |
|---|
{ "type": string, "expirationMs": string, "field": string, "requirePartitionFilter": boolean } |
| Campos | |
|---|---|
type |
Obrigatório. Os tipos aceitos são DAY, HOUR, MONTH e YEAR, que geram uma partição por dia, hora, mês e ano, respectivamente. |
expirationMs |
Opcional. Número de milissegundos em que o armazenamento de uma partição será mantido. Um wrapper é usado aqui porque 0 é um valor inválido. |
field |
Opcional. Se não for definido, a tabela será particionada pela pseudocoluna "_PARTITIONTIME". Se for definido, a tabela será particionada por esse campo. O campo precisa ser um CARIMBO DE DATA/HORA ou DATA de nível superior. O modo precisa ser NULLABLE ou REQUIRED. Um wrapper é usado aqui porque uma string vazia é um valor inválido. |
requirePartitionFilter |
Se definido como "true", as consultas nessa tabela exigem um filtro de partição que possa ser usado para especificar a eliminação de partições. Esse campo está descontinuado. Em vez disso, defina o campo com o mesmo nome na própria tabela. Esse campo precisa de um wrapper porque queremos gerar o valor padrão "false" se o usuário o definir explicitamente. |
| Representação JSON |
|---|
{ "value": boolean } |
| Campos | |
|---|---|
value |
O valor booleano. |
| Representação JSON |
|---|
{
"field": string,
"range": {
object ( |
| Campos | |
|---|---|
field |
Obrigatório. O nome da coluna em que a tabela será particionada. Ela precisa ser uma coluna INT64 de nível superior com modo NULLABLE ou REQUIRED. |
range |
Define os intervalos para o particionamento por intervalo. |
| Representação JSON |
|---|
{ "start": string, "end": string, "interval": string } |
| Campos | |
|---|---|
start |
Obrigatório. O início do particionamento de intervalo, inclusivo. Esse campo é um valor INT64 representado como uma string. |
end |
Obrigatório. O fim do particionamento de intervalo, exclusivo. Esse campo é um valor INT64 representado como uma string. |
interval |
Obrigatório. A largura de cada intervalo. Esse campo é um valor INT64 representado como uma string. |
| Representação JSON |
|---|
{ "fields": [ string ] } |
| Campos | |
|---|---|
fields[] |
Um ou mais campos em que os dados devem ser agrupados. Somente campos de nível superior, não repetidos e de tipo simples são aceitos. A ordenação dos campos de clusterização deve ser priorizada do mais importante para o menos importante para fins de filtragem. Para mais informações, consulte Introdução às tabelas em cluster. |
| Representação JSON |
|---|
{
"partitionedColumn": [
{
object ( |
| Campos | |
|---|---|
partitionedColumn[] |
Opcional. Detalhes sobre cada coluna de particionamento. Esse campo é somente de saída para todos os tipos de particionamento, exceto tabelas particionadas por metastore. As tabelas nativas do BigQuery são compatíveis com apenas uma coluna de particionamento. Outros tipos de tabela podem aceitar 0, 1 ou mais colunas de particionamento. Para tabelas particionadas do metastore, a ordem precisa corresponder à ordem de definição no metastore do Hive, que precisa corresponder ao layout físico da tabela. Por exemplo, CREATE TABLE a_table(id BIGINT, name STRING) PARTITIONED BY (city STRING, state STRING). Nesse caso, os valores precisam ser ['city', 'state'] nessa ordem. |
| Representação JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de união
|
|
field |
Obrigatório. O nome da coluna de partição. |
| Representação JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
O valor uint64. |
| Representação JSON |
|---|
{ "query": string, "userDefinedFunctionResources": [ { object ( |
| Campos | |
|---|---|
query |
Obrigatório. Uma consulta que o BigQuery executa quando a visualização é referenciada. |
userDefinedFunctionResources[] |
Descreve os recursos de função definida pelo usuário usados na consulta. |
useLegacySql |
Especifica se o SQL legado do BigQuery será usado para essa visualização. O valor padrão é true. Se definido como "false", a visualização vai usar o GoogleSQL do BigQuery: https://cloud.google.com/bigquery/sql-reference/ As consultas e visualizações que fazem referência a essa visualização precisam usar o mesmo valor de flag. Um wrapper é usado aqui porque o valor padrão é "True". |
useExplicitColumnNames |
Verdadeiro se os nomes das colunas forem especificados explicitamente. Por exemplo, usando a sintaxe "CREATE VIEW v(c1, c2) AS ...". Só pode ser definido para visualizações do GoogleSQL. |
privacyPolicy |
Opcional. Especifica a Política de Privacidade da visualização. |
foreignDefinitions[] |
Opcional. Representações de visualizações estrangeiras. |
| Representação JSON |
|---|
{ "resourceUri": string, "inlineCode": string, "inlineCodeAlternative": [ string ] } |
| Campos | |
|---|---|
resourceUri |
[Escolha uma opção] Um recurso de código para carregar de um URI do Cloud Storage (gs://bucket/path). |
inlineCode |
[Escolha uma opção] Um recurso in-line que contém o código de uma função definida pelo usuário (UDF). Fornecer um recurso de código in-line é equivalente a fornecer um URI para um arquivo que contém o mesmo código. |
inlineCodeAlternative[] |
|
| Representação JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de união privacy_policy. Política de privacidade associada a esta especificação de requisito. Só é permitido um dos métodos de privacidade por objeto de fonte de dados. privacy_policy pode ser apenas de um dos tipos a seguir: |
|
aggregationThresholdPolicy |
Opcional. Política usada para limites de agregação. |
differentialPrivacyPolicy |
Opcional. Política usada para privacidade diferencial. |
Campo de união
|
|
joinRestrictionPolicy |
Opcional. A política de restrição de mesclagem está fora de uma das políticas, já que ela pode ser definida com outras políticas. Essa política permite que os provedores de dados apliquem junções nas "join_allowed_columns" quando os dados são consultados de uma visualização protegida por privacidade. |
| Representação JSON |
|---|
{ "privacyUnitColumns": [ string ], // Union field |
| Campos | |
|---|---|
privacyUnitColumns[] |
Opcional. As colunas de unidade de privacidade associadas a essa política. Por enquanto, apenas uma coluna por objeto de fonte de dados (tabela, visualização) é permitida como uma coluna de unidade de privacidade. Representado como um campo repetido em metadados para extensibilidade a várias colunas no futuro. Não é permitido duplicar campos de struct nem usar campos repetidos. Para campos aninhados, use a notação de ponto ("externo.interno") |
Campo de união
|
|
threshold |
Opcional. O limite da política de "limite de agregação". |
| Representação JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de união
|
|
maxEpsilonPerQuery |
Opcional. O valor máximo de épsilon que uma consulta pode consumir. Se o assinante especificar epsilon como um parâmetro em uma consulta SELECT, ele precisará ser menor ou igual a esse valor. O parâmetro épsilon controla a quantidade de ruído adicionada aos grupos. Um épsilon maior significa menos ruído. |
Campo de união
|
|
deltaPerQuery |
Opcional. O valor delta usado por consulta. Delta representa a probabilidade de que qualquer linha não seja um épsilon privado diferencial. Indica o risco associado à exposição de linhas agregadas no resultado de uma consulta. |
Campo de união
|
|
maxGroupsContributed |
Opcional. O valor máximo de grupos contribuídos usado por consulta. Representa o número máximo de grupos com que cada entidade protegida pode contribuir. Mudar esse valor não melhora nem piora a privacidade. O melhor valor para acurácia e utilidade depende da consulta e dos dados. |
Campo de união
|
|
privacyUnitColumn |
Opcional. A coluna de unidade de privacidade associada a essa política. As políticas de privacidade diferencial só podem ter uma coluna de unidade de privacidade por objeto de fonte de dados (tabela, visualização). |
Campo de união
|
|
epsilonBudget |
Opcional. O orçamento total de épsilon para todas as consultas na visualização protegida pela privacidade. Cada consulta de assinante nessa visualização cobra o valor de epsilon solicitado na consulta. Se houver orçamento suficiente, a consulta de assinante vai tentar ser concluída. Ela ainda pode falhar por outros motivos, e nesse caso, a cobrança é reembolsada. Se o orçamento for insuficiente, a consulta será rejeitada. Pode haver várias tentativas de cobrança se uma única consulta fizer referência a várias visualizações. Nesse caso, é necessário ter orçamento suficiente para todas as cobranças. Caso contrário, a consulta será rejeitada e as cobranças serão reembolsadas da melhor forma possível. O orçamento não tem uma política de atualização e só pode ser atualizado usando ALTER VIEW ou contornado com a criação de uma nova visualização que pode ser consultada com um orçamento atualizado. |
Campo de união
|
|
deltaBudget |
Opcional. O orçamento delta total para todas as consultas na visualização protegida contra violação de privacidade. Cada consulta de assinante nessa visualização cobra o valor de delta predefinido pelo colaborador no campo delta_per_query da Política de Privacidade. Se houver orçamento suficiente, a consulta de assinante vai tentar ser concluída. Ela ainda pode falhar por outros motivos, e nesse caso, a cobrança é reembolsada. Se o orçamento for insuficiente, a consulta será rejeitada. Pode haver várias tentativas de cobrança se uma única consulta fizer referência a várias visualizações. Nesse caso, é necessário ter orçamento suficiente para todas as cobranças. Caso contrário, a consulta será rejeitada e as cobranças serão reembolsadas da melhor forma possível. O orçamento não tem uma política de atualização e só pode ser atualizado usando ALTER VIEW ou contornado com a criação de uma nova visualização que pode ser consultada com um orçamento atualizado. |
Campo de união
|
|
epsilonBudgetRemaining |
Apenas saída. O orçamento de epsilon restante. Se o orçamento for esgotado, não serão permitidas mais consultas. O orçamento das consultas em andamento é deduzido antes da execução. Se a consulta falhar ou for cancelada, o orçamento será reembolsado. Nesse caso, o valor restante do orçamento pode aumentar. |
Campo de união
|
|
deltaBudgetRemaining |
Apenas saída. O orçamento delta restante. Se o orçamento for esgotado, não serão permitidas mais consultas. O orçamento das consultas em andamento é deduzido antes da execução. Se a consulta falhar ou for cancelada, o orçamento será reembolsado. Nesse caso, o valor restante do orçamento pode aumentar. |
| Representação JSON |
|---|
{ "joinAllowedColumns": [ string ], // Union field |
| Campos | |
|---|---|
joinAllowedColumns[] |
Opcional. As únicas colunas em que as junções são permitidas. Esse campo precisa ser especificado para JOIN_ANY e JOIN_ALL em join_conditions, mas não pode ser definido para JOIN_BLOCKED. |
Campo de união
|
|
joinCondition |
Opcional. Especifica se uma junção é necessária ou não em consultas para a visualização. O padrão é JOIN_CONDITION_UNSPECIFIED. |
| Representação JSON |
|---|
{ "query": string, "dialect": string } |
| Campos | |
|---|---|
query |
Obrigatório. A consulta que define a visualização. |
dialect |
Opcional. Representa o dialeto da consulta. |
| Representação JSON |
|---|
{ "query": string, "lastRefreshTime": string, "enableRefresh": boolean, "refreshIntervalMs": string, "allowNonIncrementalDefinition": boolean } |
| Campos | |
|---|---|
query |
Obrigatório. Uma consulta cujos resultados são persistidos. |
lastRefreshTime |
Apenas saída. A hora em que essa visualização materializada foi atualizada pela última vez, em milissegundos desde o início. |
enableRefresh |
Opcional. Ative a atualização automática da visualização materializada quando a tabela de base for atualizada. O valor padrão é "true". |
refreshIntervalMs |
Opcional. A frequência máxima com que essa visualização materializada será atualizada. O valor padrão é "1800000" (30 minutos). |
allowNonIncrementalDefinition |
Opcional. Essa opção declara a intenção de construir uma visualização materializada que não é atualizada de forma incremental. As visualizações materializadas não incrementais são compatíveis com um intervalo maior de consultas SQL. A opção |
| Representação JSON |
|---|
{
"refreshWatermark": string,
"lastRefreshStatus": {
object ( |
| Campos | |
|---|---|
refreshWatermark |
Apenas saída. Marca-d'água de atualização da visualização materializada. Os dados das tabelas de base foram coletados no cache de visualização materializada até esse momento. Usa o padrão RFC 3339, em que a saída gerada é sempre convertida em Z e tem 0, 3, 6 ou 9 dígitos fracionários. Além de Z, outros ajustes também são aceitos. Exemplos: |
lastRefreshStatus |
Apenas saída. Resultado do erro da última atualização automática. Se presente, indica que a última atualização automática falhou. |
| Representação JSON |
|---|
{ "seconds": string, "nanos": integer } |
| Campos | |
|---|---|
seconds |
Representa os segundos do horário UTC desde a época Unix 1970-01-01T00:00:00Z. Precisa estar entre -62135596800 e 253402300799 (o que corresponde a 0001-01-01T00:00:00Z a 9999-12-31T23:59:59Z). |
nanos |
Frações não negativas de um segundo com resolução de nanossegundos. Esse campo é a parte de nanossegundos da duração, não uma alternativa aos segundos. Os valores de segundos negativos com frações ainda precisam ter valores em nanossegundos não negativos que representam períodos posteriores. O valor precisa estar entre 0 e 999.999.999 (inclusive). |
| Representação JSON |
|---|
{ "reason": string, "location": string, "debugInfo": string, "message": string } |
| Campos | |
|---|---|
reason |
Um código do erro curto que resume o erro. |
location |
Especifica onde ocorreu o erro, se presente. |
debugInfo |
Informações de depuração. Essa propriedade é interna do Google e não deve ser usada. |
message |
Uma descrição legível por humanos do erro. |
| Representação JSON |
|---|
{ "sourceUris": [ string ], "fileSetSpecType": enum ( |
| Campos | |
|---|---|
sourceUris[] |
[Obrigatório] Os URIs totalmente qualificados que apontam para seus dados no Google Cloud. Para URIs do Google Cloud Storage: cada URI pode conter um caractere curinga "*" que precisa estar depois do nome do "bucket". Os limites de tamanho relacionados a jobs de carregamento se aplicam a fontes de dados externas. Para URIs do Google Cloud Bigtable: é possível especificar exatamente um URI, que precisa ser um URL HTTPS válido e totalmente especificado para uma tabela do Google Cloud Bigtable. Para backups do Google Cloud Datastore, é possível especificar exatamente um URI. Além disso, o caractere curinga "*" não é permitido. |
fileSetSpecType |
Opcional. Especifica como os URIs de origem são interpretados para construir o conjunto de arquivos a ser carregado. Por padrão, os URIs de origem são expandidos no armazenamento subjacente. Outras opções incluem especificar arquivos de manifesto. Aplicável somente a sistemas de armazenamento de objetos. |
schema |
Opcional. O esquema dos dados. O esquema é necessário para os formatos CSV e JSON se a detecção automática não estiver ativada. O esquema não é permitido para o Google Cloud Bigtable, backups do Cloud Datastore e formatos Avro, ORC e Parquet. |
sourceFormat |
[Obrigatório] O formato de dados. Para arquivos CSV, especifique "CSV". Para as Planilhas Google, especifique "GOOGLE_SHEETS". Para JSON delimitado por nova linha, especifique "NEWLINE_DELIMITED_JSON". Para arquivos Avro, especifique "AVRO". Para backups do Google Cloud Datastore, especifique "DATASTORE_BACKUP". Para tabelas do Apache Iceberg, especifique "ICEBERG". Para arquivos ORC, especifique "ORC". Para arquivos Parquet, especifique "PARQUET". [Beta] Para o Google Cloud Bigtable, especifique "BIGTABLE". |
maxBadRecords |
Opcional. O número máximo de registros inválidos que o BigQuery pode ignorar ao ler dados. Se o número exceder esse valor, um erro inválido será retornado no resultado do job. O valor padrão é 0, o que exige que todos os registros sejam válidos. Essa configuração é ignorada para backups do Google Cloud Bigtable, do Google Cloud Datastore e formatos Avro, ORC e Parquet. |
autodetect |
Tentar detectar automaticamente o esquema e as opções de formatação. Qualquer opção especificada explicitamente será respeitada. |
ignoreUnknownValues |
Opcional. Indica se o BigQuery permite outros valores que não estão representados no esquema da tabela. Se for verdadeiro, os outros valores serão ignorados. Se for falso, os registros com colunas extras serão tratados como corrompidos e, se houver muitos desses registros, um erro inválido será retornado no resultado do job. O valor padrão é falso. A propriedade sourceFormat determina o que o BigQuery trata como um valor extra: CSV: colunas à direita. JSON: valores nomeados que não correspondem a nenhum nome de coluna. Google Cloud Bigtable: essa configuração é ignorada. Backups do Google Cloud Datastore: essa configuração é ignorada. Avro: essa configuração é ignorada. ORC: essa configuração é ignorada. Parquet: essa configuração é ignorada. |
compression |
Opcional. O tipo de compactação da fonte de dados. Os valores possíveis incluem GZIP e NONE. O valor padrão é "NONE". Essa configuração é ignorada para backups do Google Cloud Bigtable, do Google Cloud Datastore e formatos Avro, ORC e Parquet. Uma string vazia é um valor inválido. |
csvOptions |
Opcional. Outras propriedades a serem definidas se "sourceFormat" for definido como CSV. |
jsonOptions |
Opcional. Outras propriedades a serem definidas se "sourceFormat" for definido como JSON. |
bigtableOptions |
Opcional. Opções adicionais se sourceFormat estiver definido como BIGTABLE. |
googleSheetsOptions |
Opcional. Opções adicionais se sourceFormat estiver definido como GOOGLE_SHEETS. |
maxBadRecordsAlternative[] |
Este campo não deve ser usado. |
hivePartitioningOptions |
Opcional. Quando definido, configura a compatibilidade com o particionamento do Hive. Nem todos os formatos de armazenamento são compatíveis com o particionamento do Hive. Solicitar o particionamento do Hive em um formato incompatível ou fornecer uma especificação inválida vai gerar um erro. |
connectionId |
Opcional. A conexão que especifica as credenciais a serem usadas para ler o armazenamento externo, como Azure Blob, Cloud Storage ou S3. O connection_id pode ter o formato |
decimalTargetTypes[] |
Define a lista de possíveis tipos de dados SQL em que os valores decimais de origem são convertidos. Essa lista e os parâmetros de precisão e escala do campo decimal determinam o tipo de destino. Na ordem de NUMERIC, BIGNUMERIC e STRING, um tipo será escolhido se estiver na lista especificada e se for compatível com a precisão e a escala. STRING é compatível com todos os valores de precisão e escala. Se nenhum dos tipos listados for compatível com a precisão e a escala, será escolhido o tipo que aceita o intervalo mais amplo na lista especificada. Se um valor exceder o intervalo compatível durante a leitura dos dados, um erro será gerado. Exemplo: suponha que o valor desse campo seja ["NUMERIC", "BIGNUMERIC"]. Se (precisão,escala) for:
Este campo não pode conter tipos duplicados. A ordem dos tipos nesse campo é ignorada. Por exemplo, ["BIGNUMERIC", "NUMERIC"] é o mesmo que ["NUMERIC", "BIGNUMERIC"], e NUMERIC sempre tem precedência sobre BIGNUMERIC. O padrão é ["NUMERIC", "STRING"] para ORC e ["NUMERIC"] para os outros formatos de arquivo. |
avroOptions |
Opcional. Outras propriedades a serem definidas se "sourceFormat" for AVRO. |
jsonExtension |
Opcional. Opção de carregamento a ser usada com o JSON delimitado por nova linha source_format para indicar que uma variante do JSON está sendo carregada. Para carregar GeoJSON delimitado por nova linha, especifique GEOJSON (e source_format precisa ser definido como NEWLINE_DELIMITED_JSON). |
parquetOptions |
Opcional. Outras propriedades a serem definidas se "sourceFormat" for definido como "PARQUET". |
referenceFileSchemaUri |
Opcional. Ao criar uma tabela externa, o usuário pode fornecer um arquivo de referência com o esquema da tabela. Isso está ativado para os seguintes formatos: AVRO, PARQUET e ORC. |
metadataCacheMode |
Opcional. Modo de cache de metadados para a tabela. Defina isso para ativar o armazenamento em cache de metadados de uma fonte de dados externa. |
timestampTargetPrecision[] |
Precisões (número máximo de dígitos totais na base 10) para segundos de tipos TIMESTAMP permitidos na tabela de destino para o modo de detecção automática. Disponível para os formatos: CSV. Para o formato CSV, os valores possíveis incluem: Not Specified, [], ou [6]: timestamp(6) para todas as colunas TIMESTAMP detectadas automaticamente [6, 12]: timestamp(6) para todas as colunas TIMESTAMP detectadas automaticamente que têm menos de 6 dígitos de microssegundos. timestamp(12) para todas as colunas de carimbo de data/hora detectadas automaticamente que têm mais de seis dígitos de microssegundos. [12]: timestamp(12) para todas as colunas TIMESTAMP detectadas automaticamente. A ordem dos elementos nessa matriz é ignorada. As entradas com precisão maior que a precisão máxima desejada nessa matriz serão truncadas. |
Campo de união
|
|
objectMetadata |
Opcional. ObjectMetadata é usado para criar tabelas de objetos. As tabelas de objetos contêm uma lista de objetos (com os metadados deles) encontrados em "source_uris". Se "ObjectMetadata" estiver definido, "source_format" deverá ser omitido. No momento, SIMPLE é o único tipo de metadados de objeto compatível. |
Campo de união
|
|
timeZone |
Opcional. Fuso horário usado ao analisar valores de carimbo de data/hora que não têm informações específicas de fuso horário (por exemplo, 2024-04-20 12:34:56). O formato esperado é uma string de fuso horário da IANA (por exemplo, America/Los_Angeles). |
Campo de união
|
|
dateFormat |
Opcional. Formato usado para analisar valores de data. Aceita valores no estilo C e SQL. |
Campo de união
|
|
datetimeFormat |
Opcional. Formato usado para analisar valores de data e hora. Aceita valores no estilo C e SQL. |
Campo de união
|
|
timeFormat |
Opcional. Formato usado para analisar valores de TIME. Aceita valores no estilo C e SQL. |
Campo de união
|
|
timestampFormat |
Opcional. Formato usado para analisar valores de CARIMBO DE DATA/HORA. Aceita valores no estilo C e SQL. |
| Representação JSON |
|---|
{ "value": integer } |
| Campos | |
|---|---|
value |
O valor int32. |
| Representação JSON |
|---|
{ "fieldDelimiter": string, "skipLeadingRows": string, "quote": string, "allowQuotedNewlines": boolean, "allowJaggedRows": boolean, "encoding": string, "preserveAsciiControlCharacters": boolean, "nullMarker": string, "nullMarkers": [ string ], "sourceColumnMatch": string } |
| Campos | |
|---|---|
fieldDelimiter |
Opcional. O caractere separador de campos em um arquivo CSV. O separador é interpretado como um único byte. Para arquivos codificados em ISO-8859-1, qualquer caractere único pode ser usado como separador. Para arquivos codificados em UTF-8, os caracteres representados no intervalo decimal de 1 a 127 (U+0001 a U+007F) podem ser usados sem modificação. Os caracteres UTF-8 codificados com vários bytes (ou seja, U+0080 e acima) terão apenas o primeiro byte usado para separar campos. Os bytes restantes serão tratados como parte do campo. O BigQuery também aceita a sequência de escape "\t" (U+0009) para especificar um separador de tabulação. O valor padrão é vírgula (",", U+002C). |
skipLeadingRows |
Opcional. O número de linhas na parte superior de um arquivo CSV que o BigQuery vai ignorar ao ler os dados. O valor padrão é 0. Essa propriedade é útil se você tiver linhas de cabeçalho no arquivo que precisam ser ignoradas. Quando a detecção automática está ativada, o comportamento é o seguinte:
|
quote |
Opcional. O valor usado para citar seções de dados em um arquivo CSV. O BigQuery converte a string para a codificação ISO-8859-1 e usa o primeiro byte dela para dividir os dados em estado bruto binário. O valor padrão são aspas duplas ("). Se os dados não tiverem seções com citação direta, defina o valor da propriedade como uma string vazia. Se os dados contiverem caracteres de nova linha com citação direta, defina a propriedade "allowQuotedNewlines" como "true". Para incluir o caractere de citação específico dentro de um valor com citação direta, coloque um caractere extra antes dele. Por exemplo, se quiser inserir o caractere padrão ", use "". |
allowQuotedNewlines |
Opcional. Indica se o BigQuery deve permitir seções de dados com citação direta que contêm caracteres de nova linha em um arquivo CSV. O valor padrão é falso. |
allowJaggedRows |
Opcional. Indica se o BigQuery aceita linhas que não têm colunas opcionais posteriores. Se for "true", o BigQuery vai tratar as colunas finais ausentes como valores nulos. Se for falso, os registros sem colunas posteriores serão tratados como corrompidos e, se houver muitos desses registros, será retornado um erro inválido no resultado do job. O valor padrão é falso. |
encoding |
Opcional. A codificação de caracteres dos dados. Os valores compatíveis são UTF-8, ISO-8859-1, UTF-16BE, UTF-16LE, UTF-32BE e UTF-32LE. O valor padrão é UTF-8. O BigQuery decodifica os dados depois que os dados binários brutos são divididos usando os valores das propriedades "quote" e "fieldDelimiter". |
preserveAsciiControlCharacters |
Opcional. Indica se os caracteres de controle ASCII incorporados (os primeiros 32 caracteres na tabela ASCII, de "\x00" a "\x1F") são preservados. |
nullMarker |
Opcional. Especifica uma string que representa um valor nulo em um arquivo CSV. Por exemplo, se você especificar "\N", o BigQuery o interpretará como um valor nulo ao consultar um arquivo CSV. O valor padrão é a string vazia. Se você definir um valor personalizado, o BigQuery vai gerar um erro se uma string vazia estiver presente para todos os tipos de dados, exceto STRING e BYTE. Nessas colunas, o BigQuery interpreta a string vazia como um valor vazio. |
nullMarkers[] |
Opcional. Uma lista de strings representadas como valor NULL do SQL em um arquivo CSV. null_marker e null_markers não podem ser definidos ao mesmo tempo. Se "null_marker" estiver definido, "null_markers" não poderá ser definido. Se "null_markers" estiver definido, "null_marker" não poderá ser definido. Se null_marker e null_markers forem definidos ao mesmo tempo, um erro do usuário será gerado. Todas as strings listadas em "null_markers", incluindo a string vazia, serão interpretadas como NULL do SQL. Isso se aplica a todos os tipos de coluna. |
sourceColumnMatch |
Opcional. Controla a estratégia usada para corresponder as colunas carregadas ao esquema. Se não for definido, um padrão adequado será escolhido com base em como o esquema é fornecido. Se a detecção automática for usada, as colunas serão correspondidas por nome. Caso contrário, as colunas serão correspondidas por posição. Isso é feito para manter o comportamento compatível com versões anteriores. Os valores aceitáveis são: POSITION, que corresponde por posição. Isso pressupõe que as colunas estejam ordenadas da mesma forma que o esquema. NAME: corresponde por nome. Isso lê a linha de cabeçalho como nomes de colunas e reordena as colunas para corresponder aos nomes dos campos no esquema. |
| Representação JSON |
|---|
{ "encoding": string } |
| Campos | |
|---|---|
encoding |
Opcional. A codificação de caracteres dos dados. Os valores aceitos são UTF-8, UTF-16BE, UTF-16LE, UTF-32BE e UTF-32LE. O valor padrão é UTF-8. |
| Representação JSON |
|---|
{
"columnFamilies": [
{
object ( |
| Campos | |
|---|---|
columnFamilies[] |
Opcional. Lista de grupos de colunas a serem expostos no esquema da tabela, juntamente com os tipos deles. Essa lista restringe os grupos de colunas que podem ser referenciados nas consultas e especifica os respectivos tipos de valor. Use essa lista para fazer conversões de tipo. Consulte o campo "tipo" para mais detalhes. Se você deixar essa lista vazia, todas as famílias de colunas estarão presentes no esquema da tabela e os valores delas serão lidos como BYTES. Durante uma consulta, apenas os grupos de colunas referenciados nela são lidos do Bigtable. |
ignoreUnspecifiedColumnFamilies |
Opcional. Se o campo for "true", as famílias de colunas não especificadas na lista "columnFamilies" não serão expostas no esquema da tabela. Caso contrário, eles serão lidos com valores do tipo BYTES. O valor padrão é falso. |
readRowkeyAsString |
Opcional. Se o campo for "true", os grupos de colunas de rowkey serão lidos e convertidos em string. Caso contrário, eles serão lidos com valores do tipo BYTES, e os usuários precisarão fazer a conversão manualmente com CAST, se necessário. O valor padrão é falso. |
outputColumnFamiliesAsJson |
Opcional. Se o campo for verdadeiro, cada grupo de colunas será lido como uma única coluna JSON. Caso contrário, eles serão lidos como uma estrutura de célula repetida que contém tuplas de carimbo de data/hora/valor. O valor padrão é falso. |
| Representação JSON |
|---|
{ "familyId": string, "type": string, "encoding": string, "columns": [ { object ( |
| Campos | |
|---|---|
familyId |
Identificador do grupo de colunas. |
type |
Opcional. O tipo para converter o valor nas células desse grupo de colunas. Os valores precisam ser codificados usando a função Bytes.toBytes do HBase ao usar o valor de codificação BINARY. Os seguintes tipos do BigQuery são permitidos (diferencia maiúsculas de minúsculas):
O tipo padrão é BYTES. Isso pode ser substituído para uma coluna específica listando-a em "columns" e especificando um tipo para ela. |
encoding |
Opcional. A codificação dos valores quando o tipo não é STRING. Os valores de codificação aceitáveis são: TEXT, que indica que os valores são strings de texto alfanuméricas. BINARY: indica que os valores são codificados usando a família de funções Bytes.toBytes do HBase. PROTO_BINARY: indica que os valores são codificados usando mensagens proto serializadas. Isso só pode ser usado em combinação com o tipo JSON. Isso pode ser substituído para uma coluna específica listando-a em "columns" e especificando uma codificação para ela. |
columns[] |
Opcional. Listas de colunas que devem ser expostas como campos individuais, em vez de uma lista de pares (nome da coluna, valor). Todas as colunas cujo qualificador corresponda a um qualificador nesta lista podem ser acessadas como |
onlyReadLatest |
Opcional. Se essa opção estiver definida, apenas a versão mais recente do valor será exposta para todas as colunas desse grupo de colunas. Isso pode ser substituído para uma coluna específica listando-a em "columns" e especificando uma configuração diferente para ela. |
protoConfig |
Opcional. Configurações específicas do Protobuf, que só entram em vigor quando a codificação é PROTO_BINARY. |
| Representação JSON |
|---|
{
"qualifierEncoded": string,
"qualifierString": string,
"fieldName": string,
"type": string,
"encoding": string,
"onlyReadLatest": boolean,
"protoConfig": {
object ( |
| Campos | |
|---|---|
qualifierEncoded |
[Obrigatório] Qualificador da coluna. As colunas no grupo de colunas principal que têm esse qualificador exato são expostas como o campo |
qualifierString |
String do qualificador. |
fieldName |
Opcional. Se o qualificador não for um identificador de campo válido do BigQuery, ou seja, não corresponder a [a-zA-Z][a-zA-Z0-9_]*, um identificador válido precisará ser fornecido como o nome do campo da coluna e será usado como nome do campo nas consultas. |
type |
Opcional. O tipo para converter o valor nas células dessa coluna. Os valores precisam ser codificados usando a função Bytes.toBytes do HBase ao usar o valor de codificação BINARY. Os seguintes tipos do BigQuery são permitidos (diferencia maiúsculas de minúsculas):
O tipo padrão é BYTES. "type" também pode ser definido no nível do grupo de colunas. No entanto, a configuração nesse nível tem precedência se "type" estiver definido nos dois níveis. |
encoding |
Opcional. A codificação dos valores quando o tipo não é STRING. Os valores de codificação aceitáveis são: TEXT, que indica que os valores são strings de texto alfanuméricas. BINARY: indica que os valores são codificados usando a família de funções Bytes.toBytes do HBase. PROTO_BINARY: indica que os valores são codificados usando mensagens proto serializadas. Isso só pode ser usado em combinação com o tipo JSON. "encoding" também pode ser definido no nível do grupo de colunas. No entanto, a configuração nesse nível tem precedência se "encoding" estiver definido nos dois níveis. |
onlyReadLatest |
Opcional. Se essa opção estiver definida, apenas a versão mais recente do valor nessa coluna será exposta. "onlyReadLatest" também pode ser definido no nível do grupo de colunas. No entanto, a configuração nesse nível tem precedência se "onlyReadLatest" estiver definido nos dois níveis. |
protoConfig |
Opcional. Configurações específicas do Protobuf, que só entram em vigor quando a codificação é PROTO_BINARY. |
| Representação JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
O valor de bytes. Uma string codificada em base64. |
| Representação JSON |
|---|
{ "schemaBundleId": string, "protoMessageName": string } |
| Campos | |
|---|---|
schemaBundleId |
Opcional. O ID do recurso Bigtable SchemaBundle associado a este protobuf. O ID precisa ser referenciado na tabela principal, por exemplo, |
protoMessageName |
Opcional. O nome totalmente qualificado da mensagem proto do protobuf. No formato "foo.bar.Message". |
| Representação JSON |
|---|
{ "skipLeadingRows": string, "range": string } |
| Campos | |
|---|---|
skipLeadingRows |
Opcional. O número de linhas na parte superior de uma planilha que o BigQuery vai ignorar ao ler os dados. O valor padrão é 0. Essa propriedade é útil se você tiver linhas de cabeçalho que precisam ser ignoradas. Quando a detecção automática está ativada, o comportamento é o seguinte: * skipLeadingRows não especificado: a detecção automática tenta detectar cabeçalhos na primeira linha. Se não forem detectados, a linha será lida como dados. Caso contrário, os dados serão lidos a partir da segunda linha. * skipLeadingRows é 0: instrui a detecção automática de que não há cabeçalhos e que os dados devem ser lidos a partir da primeira linha. * skipLeadingRows = N > 0: a detecção automática ignora N-1 linhas e tenta detectar cabeçalhos na linha N. Se os cabeçalhos não forem detectados, a linha N será ignorada. Caso contrário, a linha N será usada para extrair nomes de colunas do esquema detectado. |
range |
Opcional. Intervalo de uma página a ser consultada. Usado somente quando não está vazio. Formato típico: nome_da_planilha!ID_da_célula_superior_esquerda:ID_da_célula_inferior_direita. Por exemplo: planilha1!A1:B20 |
| Representação JSON |
|---|
{ "mode": string, "sourceUriPrefix": string, "requirePartitionFilter": boolean, "fields": [ string ] } |
| Campos | |
|---|---|
mode |
Opcional. Quando definido, qual modo de particionamento do Hive usar ao ler dados. Estes são os modos compatíveis:
Nem todos os formatos de armazenamento são compatíveis com o particionamento do Hive. Solicitar o particionamento do Hive em um formato não compatível vai gerar um erro. Os formatos compatíveis no momento são: JSON, CSV, ORC, Avro e Parquet. |
sourceUriPrefix |
Opcional. Quando a detecção de partição do Hive é solicitada, um prefixo comum para todos os URIs de origem é obrigatório. O prefixo precisa terminar imediatamente antes do início da codificação da chave de partição. Por exemplo, considere arquivos com este layout de dados: gs://bucket/path_to_table/dt=2019-06-01/country=USA/id=7/file.avro gs://bucket/path_to_table/dt=2019-05-31/country=CA/id=3/file.avro Quando o particionamento do Hive é solicitado com a detecção AUTO ou STRINGS, o prefixo comum pode ser gs://bucket/path_to_table ou gs://bucket/path_to_table/. A detecção CUSTOM exige a codificação do esquema de particionamento imediatamente após o prefixo comum. Para CUSTOM, qualquer uma das seguintes opções:
seriam todos prefixos de URI de origem válidos. |
requirePartitionFilter |
Opcional. Se definido como "true", as consultas nessa tabela exigem um filtro de partição que possa ser usado para especificar a eliminação de partições. Esse campo só será verdadeiro ao criar uma tabela externa permanente ou consultar uma tabela externa temporária. Os carregamentos particionados do Hive com require_partition_filter definido explicitamente como "true" vão falhar. |
fields[] |
Apenas saída. Para tabelas externas permanentes, esse campo é preenchido com as chaves de partição do Hive na ordem em que foram inferidas. Os tipos das chaves de partição podem ser deduzidos verificando o esquema da tabela, que inclui as chaves de partição. Nem todas as APIs preenchem esse campo na saída. Por exemplo, "Tables.Get" vai preencher esse campo, mas "Tables.List" não. |
| Representação JSON |
|---|
{ "useAvroLogicalTypes": boolean } |
| Campos | |
|---|---|
useAvroLogicalTypes |
Opcional. Se "sourceFormat" for definido como "AVRO", indica se é necessário interpretar os tipos lógicos como o tipo de dados correspondente do BigQuery (por exemplo, TIMESTAMP), em vez de usar o tipo bruto (por exemplo, INTEGER). |
| Representação JSON |
|---|
{
"enumAsString": boolean,
"enableListInference": boolean,
"mapTargetType": enum ( |
| Campos | |
|---|---|
enumAsString |
Opcional. Indica se é necessário inferir o tipo lógico ENUM do Parquet como STRING em vez de BYTES por padrão. |
enableListInference |
Opcional. Indica se é necessário usar a inferência de esquema especificamente para o tipo lógico Parquet LIST. |
mapTargetType |
Opcional. Indica como representar um mapa do Parquet, se houver. |
| Representação JSON |
|---|
{ "connectionId": string, "storageUri": string, "fileFormat": enum ( |
| Campos | |
|---|---|
connectionId |
Opcional. A conexão que especifica as credenciais a serem usadas para leitura e gravação em armazenamento externo, como o Cloud Storage. O connection_id pode ter o formato |
storageUri |
Opcional. O prefixo de local totalmente qualificado da pasta externa em que os dados da tabela são armazenados. O caractere curinga "*" não é permitido. O URI precisa estar no formato |
fileFormat |
Opcional. O formato do arquivo em que os dados da tabela são armazenados. |
tableFormat |
Opcional. O formato da tabela em que os snapshots somente de metadados são armazenados. |
| Representação JSON |
|---|
{ "estimatedBytes": string, "estimatedRows": string, "oldestEntryTime": string } |
| Campos | |
|---|---|
estimatedBytes |
Apenas saída. Uma estimativa de limite inferior do número de bytes atualmente no buffer de streaming. |
estimatedRows |
Apenas saída. Uma estimativa de limite inferior do número de linhas atualmente no buffer de streaming. |
oldestEntryTime |
Apenas saída. Contém o carimbo de data/hora da entrada mais antiga no buffer de streaming, em milissegundos desde a época, se o buffer de streaming estiver disponível. |
| Representação JSON |
|---|
{ "kmsKeyName": string } |
| Campos | |
|---|---|
kmsKeyName |
Opcional. Descreve a chave de criptografia do Cloud KMS que será usada para proteger a tabela de destino do BigQuery. A conta de serviço do BigQuery associada ao seu projeto precisa de acesso a essa chave de criptografia. |
| Representação JSON |
|---|
{
"baseTableReference": {
object ( |
| Campos | |
|---|---|
baseTableReference |
Obrigatório. Referência que descreve o ID da tabela que foi incluída no snapshot. |
snapshotTime |
Obrigatório. A hora em que a tabela de base foi capturada. Esse valor é informado na resposta JSON usando o formato RFC3339. Usa o padrão RFC 3339, em que a saída gerada é sempre convertida em Z e tem 0, 3, 6 ou 9 dígitos fracionários. Além de Z, outros ajustes também são aceitos. Exemplos: |
| Representação JSON |
|---|
{
"baseTableReference": {
object ( |
| Campos | |
|---|---|
baseTableReference |
Obrigatório. Referência que descreve o ID da tabela clonada. |
cloneTime |
Obrigatório. A hora em que a tabela base foi clonada. Esse valor é informado na resposta JSON usando o formato RFC3339. Usa o padrão RFC 3339, em que a saída gerada é sempre convertida em Z e tem 0, 3, 6 ou 9 dígitos fracionários. Além de Z, outros ajustes também são aceitos. Exemplos: |
| Representação JSON |
|---|
{
"type": enum ( |
| Campos | |
|---|---|
type |
Apenas saída. Especifica o tipo de restrição de conjunto de dados/tabela. |
| Representação JSON |
|---|
{ "primaryKey": { object ( |
| Campos | |
|---|---|
primaryKey |
Opcional. Representa uma restrição de chave primária nas colunas de uma tabela. Presente apenas se a tabela tiver uma chave primária. A chave primária não é aplicada. |
foreignKeys[] |
Opcional. Presente somente se a tabela tiver uma chave externa. A chave externa não é aplicada. |
| Representação JSON |
|---|
{ "columns": [ string ] } |
| Campos | |
|---|---|
columns[] |
Obrigatório. As colunas que compõem a restrição de chave primária. |
| Representação JSON |
|---|
{ "name": string, "referencedTable": { object ( |
| Campos | |
|---|---|
name |
Opcional. Definido somente se a restrição de chave externa tiver um nome. |
referencedTable |
Obrigatório. A tabela que contém a chave primária e é referenciada por essa chave externa. |
columnReferences[] |
Obrigatório. As colunas que compõem a chave externa. |
| Representação JSON |
|---|
{ "referencingColumn": string, "referencedColumn": string } |
| Campos | |
|---|---|
referencingColumn |
Obrigatório. A coluna que compõe a chave externa. |
referencedColumn |
Obrigatório. A coluna na chave primária referenciada por "referencing_column". |
| Representação JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representação JSON |
|---|
{ "sourceTable": { object ( |
| Campos | |
|---|---|
sourceTable |
Obrigatório. Referência da tabela de origem replicada. |
replicationIntervalMs |
Opcional. Especifica o intervalo em que a tabela de origem é pesquisada para atualizações. É opcional. Se não for especificado, o intervalo de replicação padrão será aplicado. |
replicatedSourceLastRefreshTime |
Opcional. Apenas saída. Se a origem for uma visualização materializada, esse campo vai indicar a última atualização dela. |
replicationStatus |
Opcional. Apenas saída. Status da replicação configurada. |
replicationError |
Opcional. Apenas saída. Erro de replicação que interromperá permanentemente a replicação da tabela. |
| Representação JSON |
|---|
{
"parameters": {
string: string,
...
},
"storageDescriptor": {
object ( |
| Campos | |
|---|---|
parameters |
Opcional. Um mapa dos pares de chave-valor que definem os parâmetros e as propriedades da tabela de código aberto. Corresponde aos parâmetros da tabela do metastore do Hive. Tamanho máximo de 4 MiB. Um objeto com uma lista de pares |
storageDescriptor |
Opcional. Um descritor de armazenamento que contém informações sobre o armazenamento físico dessa tabela. |
connectionId |
Opcional. Um ID de conexão que especifica as credenciais a serem usadas para ler o armazenamento externo, como Azure Blob, Cloud Storage ou Amazon S3. Essa conexão é necessária para ler a tabela de código aberto do BigQuery. O formato de "connection_id" precisa ser |
| Representação JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representação JSON |
|---|
{
"locationUri": string,
"inputFormat": string,
"outputFormat": string,
"serdeInfo": {
object ( |
| Campos | |
|---|---|
locationUri |
Opcional. O local físico da tabela (por exemplo, |
inputFormat |
Opcional. Especifica o nome totalmente qualificado da classe do InputFormat (por exemplo, "org.apache.hadoop.hive.ql.io.orc.OrcInputFormat"). O tamanho máximo é de 128 caracteres. |
outputFormat |
Opcional. Especifica o nome totalmente qualificado da classe do OutputFormat (por exemplo, "org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat"). O tamanho máximo é de 128 caracteres. |
serdeInfo |
Opcional. Informações do serializador e desserializador. |
| Representação JSON |
|---|
{ "name": string, "serializationLibrary": string, "parameters": { string: string, ... } } |
| Campos | |
|---|---|
name |
Opcional. Nome do SerDe. O tamanho máximo é de 256 caracteres. |
serializationLibrary |
Obrigatório. Especifica um nome de classe totalmente qualificado da biblioteca de serialização responsável pela tradução de dados entre a representação da tabela e as estruturas de formato de entrada e saída de baixo nível. O tamanho máximo é de 256 caracteres. |
parameters |
Opcional. Pares de chave-valor que definem os parâmetros de inicialização da biblioteca de serialização. Tamanho máximo: 10 Kib. Um objeto com uma lista de pares |
| Representação JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
Anotações de ferramentas
Dica destrutiva: ❌ | Dica idempotente: ✅ | Dica somente leitura: ✅ | Dica de mundo aberto: ❌