Herramienta: get_table_info
Obtiene información de metadatos sobre una tabla de BigQuery.
En el siguiente ejemplo se muestra cómo usar curl para invocar la herramienta get_table_info MCP.
| Solicitud de Curl |
|---|
curl --location 'https://bigquery.googleapis.com/mcp' \ --header 'content-type: application/json' \ --header 'accept: application/json, text/event-stream' \ --data '{ "method": "tools/call", "params": { "name": "get_table_info", "arguments": { // provide these details according to the tool's MCP specification } }, "jsonrpc": "2.0", "id": 1 }' |
Esquema de entrada
Solicitud de una tabla.
| Representación JSON |
|---|
{ "projectId": string, "datasetId": string, "tableId": string } |
| Campos | |
|---|---|
projectId |
Obligatorio. ID del proyecto de la solicitud de tabla. |
datasetId |
Obligatorio. ID del conjunto de datos de la solicitud de tabla. |
tableId |
Obligatorio. ID de la tabla de la solicitud. |
Esquema de salida
| Representación JSON |
|---|
{ "kind": string, "etag": string, "id": string, "selfLink": string, "tableReference": { object ( |
| Campos | |
|---|---|
kind |
El tipo de identificador del recurso. |
etag |
Solo de salida. Un hash de este recurso. |
id |
Solo de salida. ID opaco que identifica de forma única la tabla. |
selfLink |
Solo de salida. Una URL que se puede usar para acceder de nuevo a este recurso. |
tableReference |
Obligatorio. Referencia que describe el ID de esta tabla. |
friendlyName |
Opcional. Nombre descriptivo de esta tabla. |
description |
Opcional. Una descripción de tabla fácil de entender para los usuarios. |
labels |
Las etiquetas asociadas a esta tabla. Puedes usarlos para organizar y agrupar tus tablas. Las claves y los valores de las etiquetas no pueden tener más de 63 caracteres y solo pueden contener letras minúsculas, caracteres numéricos, guiones bajos y guiones. Se permite utilizar caracteres internacionales. Los valores de las etiquetas son opcionales. Las claves de etiqueta deben empezar por una letra y cada etiqueta de la lista debe tener una clave diferente. Un objeto que contiene una lista de pares |
schema |
Opcional. Describe el esquema de esta tabla. |
timePartitioning |
Si se especifica, configura la partición basada en tiempo de esta tabla. |
rangePartitioning |
Si se especifica, configura la partición por intervalo de esta tabla. |
clustering |
Especificación de la agrupación en clústeres de la tabla. Se debe especificar con particiones basadas en tiempo. Los datos de la tabla se particionarán primero y, después, se agruparán en clústeres. |
requirePartitionFilter |
Opcional. Si se le asigna el valor true, las consultas de esta tabla deben especificar un filtro de partición que se pueda usar para descartar particiones. |
numBytes |
Solo de salida. Tamaño de esta tabla en bytes lógicos, sin incluir los datos del búfer de streaming. |
numPhysicalBytes |
Solo de salida. Tamaño físico de esta tabla en bytes. Esto incluye el almacenamiento utilizado para los viajes en el tiempo. |
numLongTermBytes |
Solo de salida. Número de bytes lógicos de la tabla que se consideran "almacenamiento a largo plazo". |
numRows |
Solo de salida. Número de filas de datos de esta tabla, sin incluir los datos del búfer de streaming. |
creationTime |
Solo de salida. La hora de creación de la tabla (en milisegundos desde la época). |
expirationTime |
Opcional. Hora en la que caduca esta tabla, en milisegundos desde el inicio del registro de tiempo. Si no aparece, la tabla permanecerá de forma indefinida. Las tablas caducadas se borrarán y se reclamará su almacenaje. La propiedad defaultTableExpirationMs del conjunto de datos encapsulado se puede usar para definir un valor predeterminado de expirationTime en las tablas recién creadas. |
lastModifiedTime |
Solo de salida. Hora en la que se modificó esta tabla por última vez, en milisegundos desde la época. |
type |
Solo de salida. Describe el tipo de tabla. Se admiten los siguientes valores:
El valor predeterminado es |
view |
Opcional. La definición de la vista. |
materializedView |
Opcional. Definición de la vista materializada. |
materializedViewStatus |
Solo de salida. El estado de la vista materializada. |
externalDataConfiguration |
Opcional. Describe el formato, la ubicación y otras propiedades de una tabla almacenada fuera de BigQuery. Al definir estas propiedades, se puede consultar la fuente de datos como si fuera una tabla estándar de BigQuery. |
biglakeConfiguration |
Opcional. Especifica la configuración de una tabla de BigQuery para Apache Iceberg. |
managedTableType |
Opcional. Si se define, anula el tipo de tabla gestionada predeterminado configurado en el conjunto de datos. |
location |
Solo de salida. Ubicación geográfica en la que se encuentra la tabla. Este valor se hereda del conjunto de datos. |
streamingBuffer |
Solo de salida. Contiene información sobre el búfer de streaming de esta tabla, si lo hay. Este campo no estará presente si la tabla no se está transmitiendo o si no hay datos en el búfer de transmisión. |
encryptionConfiguration |
Configuración de cifrado personalizada (por ejemplo, Claves de Cloud KMS). |
snapshotDefinition |
Solo de salida. Contiene información sobre la instantánea. Este valor se define al crear la captura. |
defaultCollation |
Opcional. Define la especificación de la ordenación predeterminada de los nuevos campos STRING de la tabla. Durante la creación o la actualización de una tabla, si se añade un campo STRING a esta tabla sin especificar una ordenación explícita, la tabla hereda la ordenación predeterminada de la tabla. Los cambios que se hagan en este campo solo afectarán a los campos que se añadan después y no modificarán los campos que ya haya. Se admiten los siguientes valores:
|
defaultRoundingMode |
Opcional. Define la especificación del modo de redondeo predeterminado de los nuevos campos decimales (NUMERIC o BIGNUMERIC) de la tabla. Durante la creación o actualización de una tabla, si se añade un campo decimal a esta tabla sin especificar un modo de redondeo explícito, el campo hereda el modo de redondeo predeterminado de la tabla. Cambiar este campo no afecta a los campos que ya tenga. |
cloneDefinition |
Solo de salida. Contiene información sobre el clon. Este valor se define mediante la operación de clonación. |
numTimeTravelPhysicalBytes |
Solo de salida. Número de bytes físicos utilizados por el almacenamiento de viajes en el tiempo (datos eliminados o modificados). Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
numTotalLogicalBytes |
Solo de salida. Número total de bytes lógicos de la tabla o de la vista materializada. |
numActiveLogicalBytes |
Solo de salida. Número de bytes lógicos que tienen menos de 90 días de antigüedad. |
numLongTermLogicalBytes |
Solo de salida. Número de bytes lógicos que tienen más de 90 días. |
numCurrentPhysicalBytes |
Solo de salida. Número de bytes físicos utilizados por el almacenamiento de datos activos actual. Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
numTotalPhysicalBytes |
Solo de salida. Tamaño físico de esta tabla en bytes. Esto también incluye el almacenamiento utilizado para los viajes en el tiempo. Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
numActivePhysicalBytes |
Solo de salida. Número de bytes físicos con menos de 90 días de antigüedad. Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
numLongTermPhysicalBytes |
Solo de salida. Número de bytes físicos con una antigüedad superior a 90 días. Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
numPartitions |
Solo de salida. Número de particiones presentes en la tabla o en la vista materializada. Estos datos no se conservan en tiempo real y pueden retrasarse entre unos segundos y unos minutos. |
maxStaleness |
Opcional. La antigüedad máxima de los datos que se pueden devolver cuando se consulta la tabla (o la vista materializada obsoleta). Obsoleto codificado como una codificación de cadena del tipo IntervalValue de SQL. |
restrictions |
Opcional. Solo de salida. Configuración de restricciones de la tabla. Si se define, restringe determinados accesos en la tabla en función de la configuración. Consulta más información sobre la salida de datos. |
tableConstraints |
Opcional. Información sobre las claves primarias y externas de las tablas |
resourceTags |
Opcional. Las etiquetas adjuntas a esta tabla. Las claves de etiqueta son únicas en todo el mundo. La clave de la etiqueta debe tener el formato de espacio de nombres. Por ejemplo, "123456789012/environment", donde 123456789012 es el ID del recurso de organización o proyecto principal de esta clave de etiqueta. El valor de la etiqueta debe ser el nombre abreviado, por ejemplo, "Producción". Consulte Definiciones de etiquetas para obtener más información. Un objeto que contiene una lista de pares |
tableReplicationInfo |
Opcional. Información de replicación de la tabla creada con una instrucción DDL de tipo |
replicas[] |
Opcional. Solo de salida. Referencias de tabla de todas las réplicas activas en la tabla. |
externalCatalogTableOptions |
Opcional. Opciones que definen una tabla compatible con código abierto. |
Campo de unión
|
|
partitionDefinition |
Opcional. La información de las particiones de todos los formatos de tabla, incluidas las tablas con particiones gestionadas, las tablas con particiones de Hive, las tablas con particiones de Iceberg y las tablas con particiones de metastore. Este campo solo se rellena en las tablas con particiones del metastore. En el caso de otros formatos de tabla, este campo es de solo salida. |
| Representación JSON |
|---|
{ "projectId": string, "datasetId": string, "tableId": string, "projectIdAlternative": [ string ], "datasetIdAlternative": [ string ], "tableIdAlternative": [ string ] } |
| Campos | |
|---|---|
projectId |
Obligatorio. El ID del proyecto que contiene esta tabla. |
datasetId |
Obligatorio. ID del conjunto de datos que contiene esta tabla. |
tableId |
Obligatorio. El ID de la tabla. El ID puede contener caracteres Unicode de las categorías L (letra), M (marca), N (número), Pc (conector, incluido el guion bajo), Pd (guion) y Zs (espacio). Para obtener más información, consulta la sección Categoría general. La longitud máxima es de 1024 caracteres. En algunas operaciones, se puede añadir un sufijo al ID de la tabla con un decorador de partición, como |
projectIdAlternative[] |
Este campo no se debe usar. |
datasetIdAlternative[] |
Este campo no se debe usar. |
tableIdAlternative[] |
Este campo no se debe usar. |
| Representación JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
Valor de cadena. |
| Representación JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representación JSON |
|---|
{ "fields": [ { object ( |
| Campos | |
|---|---|
fields[] |
Describe los campos de una tabla. |
foreignTypeInfo |
Opcional. Especifica los metadatos de la definición del tipo de datos externos en el esquema de campo ( |
| Representación JSON |
|---|
{ "name": string, "type": string, "mode": string, "fields": [ { object ( |
| Campos | |
|---|---|
name |
Obligatorio. Nombre del campo. El nombre solo puede contener letras (a-z, A-Z), números (0-9) o guiones bajos (_), y debe empezar por una letra o un guion bajo. La longitud máxima es de 300 caracteres. |
type |
Obligatorio. El tipo de datos del campo. Estos son algunos de los posibles valores:
El uso de RECORD o STRUCT indica que el campo contiene un esquema anidado. |
mode |
Opcional. El modo del campo. Entre los valores posibles se incluyen NULLABLE, REQUIRED y REPEATED. El valor predeterminado es NULLABLE. |
fields[] |
Opcional. Describe los campos de esquema anidados si la propiedad type se define como RECORD. |
description |
Opcional. Descripción del campo. La longitud máxima es de 1024 caracteres. |
policyTags |
Opcional. Las etiquetas de política asociadas a este campo, que se usan para el control de acceso a nivel de campo. Si no se define, se utiliza una lista vacía de policy_tags de forma predeterminada. |
dataPolicies[] |
Opcional. Políticas de datos asociadas a este campo, que se usan para el control de acceso a nivel de campo. |
nameAlternative[] |
Este campo no se debe usar. |
maxLength |
Opcional. Longitud máxima de los valores de este campo para STRINGS o BYTES. Si no se especifica max_length, no se impone ninguna restricción de longitud máxima en este campo. Si type = "STRING", max_length representa la longitud máxima en UTF-8 de las cadenas de este campo. Si type = "BYTES", max_length representa el número máximo de bytes de este campo. No se puede definir este campo si type ≠ "STRING" y ≠ "BYTES". |
precision |
Opcional. Restricciones de precisión (número máximo de dígitos totales en base 10) y escala (número máximo de dígitos en la parte fraccionaria en base 10) para los valores de este campo en NUMERIC o BIGNUMERIC. No se puede definir la precisión ni la escala si el tipo no es "NUMERIC" ni "BIGNUMERIC". Si no se especifican la precisión y la escala, no se impone ninguna restricción de intervalo de valores en este campo, siempre que los valores estén permitidos por el tipo. Los valores de este campo NUMERIC o BIGNUMERIC deben estar en este intervalo cuando:
Valores aceptables para la precisión y la escala si se especifican ambos:
Valores aceptables de precisión si solo se especifica la precisión, pero no la escala (por lo que se interpreta que la escala es igual a cero):
Si se especifica la escala, pero no la precisión, no será válido. |
scale |
Opcional. Consulta la documentación para obtener información sobre la precisión. |
timestampPrecision |
Opcional. Precisión (número máximo de dígitos totales en base 10) de los segundos del tipo TIMESTAMP. Entre los valores posibles se incluyen los siguientes: * 6 (valor predeterminado para el tipo TIMESTAMP con precisión de microsegundos) * 12 (para el tipo TIMESTAMP con precisión de picosegundos) |
roundingMode |
Opcional. Especifica el modo de redondeo que se debe usar al almacenar valores de tipo NUMERIC y BIGNUMERIC. |
collation |
Opcional. La ordenación de campos solo se puede definir cuando el tipo de campo es STRING. Se admiten los siguientes valores:
|
defaultValueExpression |
Opcional. Una expresión SQL para especificar el valor predeterminado de este campo. |
rangeElementType |
Opcional. Subtipo de RANGE, si el tipo de este campo es RANGE. Si el tipo es INTERVALO, este campo es obligatorio. Los valores del tipo de elemento de campo pueden ser los siguientes:
|
foreignTypeDefinition |
Opcional. Definición del tipo de datos externo. Solo es válido para los campos de esquema de nivel superior (no para los campos anidados). Si el tipo es EXTERNO, este campo es obligatorio. |
| Representación JSON |
|---|
{ "names": [ string ] } |
| Campos | |
|---|---|
names[] |
Lista de nombres de recursos de etiquetas de política. Por ejemplo, "projects/1/locations/eu/taxonomies/2/policyTags/3". Actualmente, se permite 1 etiqueta de política como máximo. |
| Representación JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de unión
|
|
name |
Nombre de recurso de la política de datos con el formato projects/project_id/locations/location_id/dataPolicies/data_policy_id. |
| Representación JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
Valor int64. |
| Representación JSON |
|---|
{ "type": string } |
| Campos | |
|---|---|
type |
Obligatorio. Tipo de elemento de campo. Para obtener más información, consulta |
| Representación JSON |
|---|
{
"typeSystem": enum ( |
| Campos | |
|---|---|
typeSystem |
Obligatorio. Especifica el sistema que define el tipo de datos externos. |
| Representación JSON |
|---|
{ "type": string, "expirationMs": string, "field": string, "requirePartitionFilter": boolean } |
| Campos | |
|---|---|
type |
Obligatorio. Los tipos admitidos son DAY, HOUR, MONTH y YEAR, que generarán una partición por día, hora, mes y año, respectivamente. |
expirationMs |
Opcional. Número de milisegundos durante los que se conservará el almacenamiento de una partición. Aquí se usa un envoltorio porque 0 es un valor no válido. |
field |
Opcional. Si no se define, la tabla se particiona por la pseudocolumna "_PARTITIONTIME". Si se define, la tabla se particiona por este campo. El campo debe ser un campo TIMESTAMP o DATE de nivel superior. Su modo debe ser NULLABLE o REQUIRED. Aquí se usa un envoltorio porque una cadena vacía es un valor no válido. |
requirePartitionFilter |
Si se le asigna el valor true, las consultas de esta tabla deben especificar un filtro de partición que se pueda usar para descartar particiones. Este campo está obsoleto. En su lugar, defina el campo con el mismo nombre en la propia tabla. Este campo necesita un envoltorio porque queremos mostrar el valor predeterminado, false, si el usuario lo ha definido explícitamente. |
| Representación JSON |
|---|
{ "value": boolean } |
| Campos | |
|---|---|
value |
Valor booleano. |
| Representación JSON |
|---|
{
"field": string,
"range": {
object ( |
| Campos | |
|---|---|
field |
Obligatorio. Nombre de la columna por la que se va a particionar la tabla. Debe ser una columna INT64 de nivel superior cuyo modo sea NULLABLE o REQUIRED. |
range |
Define los intervalos de la partición por intervalo. |
| Representación JSON |
|---|
{ "start": string, "end": string, "interval": string } |
| Campos | |
|---|---|
start |
Obligatorio. El inicio de la partición por rango (inclusive). Este campo es un valor INT64 representado como una cadena. |
end |
Obligatorio. El final de la partición por intervalo (exclusivo). Este campo es un valor INT64 representado como una cadena. |
interval |
Obligatorio. La anchura de cada intervalo. Este campo es un valor INT64 representado como una cadena. |
| Representación JSON |
|---|
{ "fields": [ string ] } |
| Campos | |
|---|---|
fields[] |
Uno o varios campos en los que se deben agrupar los datos. Solo se admiten campos de nivel superior, no repetidos y de tipo simple. El orden de los campos de agrupamiento debe priorizarse de mayor a menor importancia para los filtros. Para obtener más información, consulta Introducción a las tablas agrupadas en clústeres. |
| Representación JSON |
|---|
{
"partitionedColumn": [
{
object ( |
| Campos | |
|---|---|
partitionedColumn[] |
Opcional. Detalles sobre cada columna de partición. Este campo solo se genera para todos los tipos de partición, excepto para las tablas con particiones de metastore. Las tablas nativas de BigQuery solo admiten una columna de partición. Otros tipos de tablas pueden admitir 0, 1 o más columnas de partición. En el caso de las tablas particionadas de metastore, el orden debe coincidir con el orden de definición en Hive Metastore, donde debe coincidir con el diseño físico de la tabla. Por ejemplo, CREATE TABLE a_table(id BIGINT, name STRING) PARTITIONED BY (city STRING, state STRING). En este caso, los valores deben ser ['city', 'state'] en ese orden. |
| Representación JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de unión
|
|
field |
Obligatorio. Nombre de la columna de partición. |
| Representación JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
Valor uint64. |
| Representación JSON |
|---|
{ "query": string, "userDefinedFunctionResources": [ { object ( |
| Campos | |
|---|---|
query |
Obligatorio. Una consulta que BigQuery ejecuta cuando se hace referencia a la vista. |
userDefinedFunctionResources[] |
Describe los recursos de funciones definidas por el usuario que se usan en la consulta. |
useLegacySql |
Especifica si se debe usar el SQL antiguo de BigQuery en esta vista. El valor predeterminado es true. Si se define como falso, la vista usará GoogleSQL de BigQuery: https://cloud.google.com/bigquery/sql-reference/. Las consultas y las vistas que hagan referencia a esta vista deben usar el mismo valor de marca. Aquí se usa un envoltorio porque el valor predeterminado es True. |
useExplicitColumnNames |
Es true si los nombres de las columnas se especifican explícitamente. Por ejemplo, usando la sintaxis "CREATE VIEW v(c1, c2) AS ...". Solo se puede definir para vistas de GoogleSQL. |
privacyPolicy |
Opcional. Especifica la política de privacidad de la vista. |
foreignDefinitions[] |
Opcional. Representaciones de vistas externas. |
| Representación JSON |
|---|
{ "resourceUri": string, "inlineCode": string, "inlineCodeAlternative": [ string ] } |
| Campos | |
|---|---|
resourceUri |
[Elige una] Un recurso de código que se cargará desde un URI de Google Cloud Storage (gs://bucket/path). |
inlineCode |
[Elige una] Recurso insertado que contiene código de una función definida por el usuario (FDU). Proporcionar un recurso de código insertado es lo mismo que proporcionar un URI para un archivo que contenga el mismo código. |
inlineCodeAlternative[] |
|
| Representación JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de unión privacy_policy. Política de privacidad asociada a esta especificación de requisitos. Solo se permite uno de los métodos de privacidad por objeto de fuente de datos. privacy_policy solo puede ser una de estas dos opciones: |
|
aggregationThresholdPolicy |
Opcional. Política utilizada para los umbrales de agregación. |
differentialPrivacyPolicy |
Opcional. Política usada para la privacidad diferencial. |
Campo de unión
|
|
joinRestrictionPolicy |
Opcional. La política de restricción de acceso no forma parte de ninguna de las políticas, ya que se puede definir junto con otras políticas. Esta política permite a los proveedores de datos aplicar combinaciones en "join_allowed_columns" cuando se consultan datos de una vista protegida por la privacidad. |
| Representación JSON |
|---|
{ "privacyUnitColumns": [ string ], // Union field |
| Campos | |
|---|---|
privacyUnitColumns[] |
Opcional. Las columnas de unidades de privacidad asociadas a esta política. Por ahora, solo se permite una columna por objeto de fuente de datos (tabla o vista) como columna de unidad de privacidad. Se representa como un campo repetido en los metadatos para que se pueda ampliar a varias columnas en el futuro. No se permiten duplicados ni campos struct repetidos. En el caso de los campos anidados, usa la notación de punto ("externo.interno"). |
Campo de unión
|
|
threshold |
Opcional. Umbral de la política "Umbral de agregación". |
| Representación JSON |
|---|
{ // Union field |
| Campos | |
|---|---|
Campo de unión
|
|
maxEpsilonPerQuery |
Opcional. Valor máximo de épsilon que puede consumir una consulta. Si el suscriptor especifica épsilon como parámetro en una consulta SELECT, debe ser menor o igual que este valor. El parámetro épsilon controla la cantidad de ruido que se añade a los grupos. Cuanto mayor sea el valor de épsilon, menor será el ruido. |
Campo de unión
|
|
deltaPerQuery |
Opcional. El valor delta que se usa por consulta. Delta representa la probabilidad de que una fila no sea diferencialmente privada con respecto a épsilon. Indica el riesgo asociado a la exposición de filas agregadas en el resultado de una consulta. |
Campo de unión
|
|
maxGroupsContributed |
Opcional. El valor máximo de grupos a los que se ha contribuido que se usa por consulta. Representa el número máximo de grupos a los que puede contribuir cada entidad protegida. Cambiar este valor no mejora ni empeora la privacidad. El mejor valor para la precisión y la utilidad depende de la consulta y los datos. |
Campo de unión
|
|
privacyUnitColumn |
Opcional. Columna de unidad de privacidad asociada a esta política. Las políticas de privacidad diferencial solo pueden tener una columna de unidad de privacidad por objeto de fuente de datos (tabla o vista). |
Campo de unión
|
|
epsilonBudget |
Opcional. El presupuesto total de épsilon de todas las consultas en la vista protegida por la privacidad. Cada consulta de suscriptor en esta vista cobra la cantidad de épsilon que solicita en su consulta. Si hay suficiente presupuesto, la consulta del suscriptor intentará completarse. Es posible que siga fallando por otros motivos, en cuyo caso se reembolsará el cargo. Si no hay presupuesto suficiente, se rechaza la consulta. Puede haber varios intentos de cobro si una sola consulta hace referencia a varias vistas. En ese caso, debe haber presupuesto suficiente para todos los cargos o la consulta se rechazará y los cargos se reembolsarán de la mejor forma posible. El presupuesto no tiene una política de actualización y solo se puede actualizar mediante ALTER VIEW o se puede eludir creando una vista que se pueda consultar con un presupuesto actualizado. |
Campo de unión
|
|
deltaBudget |
Opcional. El presupuesto delta total de todas las consultas en la vista protegida por la privacidad. Cada consulta de suscriptor en esta vista cobra la cantidad de delta predefinida por el colaborador a través del campo delta_per_query de la política de privacidad. Si hay suficiente presupuesto, la consulta del suscriptor intentará completarse. Es posible que siga fallando por otros motivos, en cuyo caso se reembolsará el cargo. Si no hay presupuesto suficiente, se rechaza la consulta. Puede haber varios intentos de cobro si una sola consulta hace referencia a varias vistas. En ese caso, debe haber presupuesto suficiente para todos los cargos o la consulta se rechazará y los cargos se reembolsarán de la mejor forma posible. El presupuesto no tiene una política de actualización y solo se puede actualizar mediante ALTER VIEW o se puede eludir creando una vista que se pueda consultar con un presupuesto actualizado. |
Campo de unión
|
|
epsilonBudgetRemaining |
Solo de salida. Presupuesto de épsilon restante. Si se agota el presupuesto, no se permiten más consultas. Ten en cuenta que el presupuesto de las consultas en curso se deduce antes de que se ejecuten. Si la consulta falla o se cancela, se reembolsará el presupuesto. En este caso, el importe del presupuesto restante puede aumentar. |
Campo de unión
|
|
deltaBudgetRemaining |
Solo de salida. El presupuesto restante delta. Si se agota el presupuesto, no se permiten más consultas. Ten en cuenta que el presupuesto de las consultas en curso se deduce antes de que se ejecuten. Si la consulta falla o se cancela, se reembolsará el presupuesto. En este caso, el importe del presupuesto restante puede aumentar. |
| Representación JSON |
|---|
{ "joinAllowedColumns": [ string ], // Union field |
| Campos | |
|---|---|
joinAllowedColumns[] |
Opcional. Solo se permiten las columnas que se unen. Este campo se debe especificar en los valores JOIN_ANY y JOIN_ALL de join_conditions, pero no se puede definir en JOIN_BLOCKED. |
Campo de unión
|
|
joinCondition |
Opcional. Especifica si se requiere una combinación en las consultas de la vista. El valor predeterminado es JOIN_CONDITION_UNSPECIFIED. |
| Representación JSON |
|---|
{ "query": string, "dialect": string } |
| Campos | |
|---|---|
query |
Obligatorio. La consulta que define la vista. |
dialect |
Opcional. Representa la variante del idioma de la consulta. |
| Representación JSON |
|---|
{ "query": string, "lastRefreshTime": string, "enableRefresh": boolean, "refreshIntervalMs": string, "allowNonIncrementalDefinition": boolean } |
| Campos | |
|---|---|
query |
Obligatorio. Consulta cuyos resultados se conservan. |
lastRefreshTime |
Solo de salida. Hora en la que se actualizó por última vez esta vista materializada, en milisegundos desde la época. |
enableRefresh |
Opcional. Habilita la actualización automática de la vista materializada cuando se actualice la tabla base. El valor predeterminado es "true". |
refreshIntervalMs |
Opcional. La frecuencia máxima con la que se actualizará esta vista materializada. El valor predeterminado es "1800000" (30 minutos). |
allowNonIncrementalDefinition |
Opcional. Esta opción declara la intención de crear una vista materializada que no se actualiza de forma incremental. Las vistas materializadas no incrementales admiten una gama más amplia de consultas de SQL. La opción |
| Representación JSON |
|---|
{
"refreshWatermark": string,
"lastRefreshStatus": {
object ( |
| Campos | |
|---|---|
refreshWatermark |
Solo de salida. Actualiza la marca de agua de la vista materializada. Los datos de las tablas base se recogieron en la caché de la vista materializada hasta ese momento. Usa RFC 3339, donde la salida generada siempre se normaliza con Z y usa 0, 3, 6 o 9 dígitos fraccionarios. También se aceptan otros desplazamientos distintos de "Z". Ejemplos: |
lastRefreshStatus |
Solo de salida. Resultado de error de la última actualización automática. Si está presente, indica que la última actualización automática no se ha completado correctamente. |
| Representación JSON |
|---|
{ "seconds": string, "nanos": integer } |
| Campos | |
|---|---|
seconds |
Representa segundos de tiempo UTC desde el registro de tiempo de Unix 1970-01-01T00:00:00Z. Debe estar comprendido entre -62135596800 y 253402300799 (lo que corresponde a 0001-01-01T00:00:00Z y 9999-12-31T23:59:59Z). |
nanos |
Fracciones no negativas de un segundo con una resolución de nanosegundos. Este campo es la parte de nanosegundos de la duración, no una alternativa a los segundos. Los valores de segundos negativos con fracciones aún deben tener valores de nanosegundos no negativos que cuenten hacia adelante en el tiempo. Debe estar comprendido entre 0 y 999.999.999, ambos incluidos. |
| Representación JSON |
|---|
{ "reason": string, "location": string, "debugInfo": string, "message": string } |
| Campos | |
|---|---|
reason |
Un código de error breve que resume el error. |
location |
Especifica dónde se ha producido el error, si es que se ha producido alguno. |
debugInfo |
Información de depuración. Esta propiedad es interna de Google y no debe usarse. |
message |
Descripción del error con formato legible para humanos. |
| Representación JSON |
|---|
{ "sourceUris": [ string ], "fileSetSpecType": enum ( |
| Campos | |
|---|---|
sourceUris[] |
[Obligatorio] URIs completos que dirigen a tus datos en Google Cloud. En el caso de los URIs de Google Cloud Storage, cada URI puede contener un carácter comodín "*", que debe ir después del nombre del segmento. Los límites de tamaño relacionados con los trabajos de carga se aplican a las fuentes de datos externas. En el caso de los URIs de Google Cloud Bigtable, solo se puede especificar un URI, que debe ser una URL HTTPS válida y totalmente especificada de una tabla de Google Cloud Bigtable. En el caso de las copias de seguridad de Google Cloud Datastore, solo se puede especificar un URI. Además, no se permite el carácter comodín "*". |
fileSetSpecType |
Opcional. Especifica cómo se interpretan los URIs de origen para crear el conjunto de archivos que se va a cargar. De forma predeterminada, los URIs de origen se amplían en el almacenamiento subyacente. También puede especificar archivos de manifiesto. Solo se aplica a los sistemas de almacenamiento de objetos. |
schema |
Opcional. El esquema de los datos. El esquema es obligatorio para los formatos CSV y JSON si la detección automática no está activada. No se permite el uso de esquemas en Google Cloud Bigtable, copias de seguridad de Cloud Datastore ni en los formatos Avro, ORC y Parquet. |
sourceFormat |
[Obligatorio] El formato de los datos. En el caso de los archivos CSV, especifique "CSV". En el caso de Hojas de cálculo de Google, especifica "GOOGLE_SHEETS". En el caso de JSON delimitado por líneas nuevas, especifica "NEWLINE_DELIMITED_JSON". En el caso de los archivos Avro, especifica "AVRO". En el caso de las copias de seguridad de Google Cloud Datastore, especifica "DATASTORE_BACKUP". En el caso de las tablas de Apache Iceberg, especifica "ICEBERG". En el caso de los archivos ORC, especifica "ORC". En el caso de los archivos Parquet, especifica "PARQUET". [Beta] En Google Cloud Bigtable, especifica "BIGTABLE". |
maxBadRecords |
Opcional. Número máximo de registros incorrectos que BigQuery puede ignorar al leer datos. Si el número de registros incorrectos supera este valor, se devuelve un error no válido en el resultado del trabajo. El valor predeterminado es 0, lo que requiere que todos los registros sean válidos. Este ajuste se ignora en el caso de las copias de seguridad de Google Cloud Bigtable y Google Cloud Datastore, así como en los formatos Avro, ORC y Parquet. |
autodetect |
Intenta detectar automáticamente las opciones de esquema y formato. Se respetará cualquier opción especificada explícitamente. |
ignoreUnknownValues |
Opcional. Indica si BigQuery debe permitir valores adicionales que no estén representados en el esquema de la tabla. Si es true, se ignoran los valores adicionales. Si es false, los registros con columnas adicionales se tratan como registros incorrectos y, si hay demasiados registros incorrectos, se devuelve un error no válido en el resultado del trabajo. El valor predeterminado es false. La propiedad sourceFormat determina qué considera BigQuery como un valor adicional: CSV: columnas finales JSON: valores con nombre que no coinciden con ningún nombre de columna Google Cloud Bigtable: este ajuste se ignora. Copias de seguridad de Google Cloud Datastore: este ajuste se ignora. Avro: este ajuste se ignora. ORC: este ajuste se ignora. Parquet: este ajuste se ignora. |
compression |
Opcional. El tipo de compresión de la fuente de datos. Entre los posibles valores se incluyen GZIP y NONE. El valor predeterminado es NONE. Este ajuste se ignora en el caso de las copias de seguridad de Google Cloud Bigtable y Google Cloud Datastore, así como en los formatos Avro, ORC y Parquet. Una cadena vacía no es un valor válido. |
csvOptions |
Opcional. Propiedades adicionales que se deben definir si sourceFormat se establece en CSV. |
jsonOptions |
Opcional. Propiedades adicionales que se deben definir si sourceFormat se establece en JSON. |
bigtableOptions |
Opcional. Opciones adicionales si sourceFormat se define como BIGTABLE. |
googleSheetsOptions |
Opcional. Opciones adicionales si sourceFormat se define como GOOGLE_SHEETS. |
maxBadRecordsAlternative[] |
Este campo no se debe usar. |
hivePartitioningOptions |
Opcional. Si se define, configura la compatibilidad con la partición de Hive. No todos los formatos de almacenamiento admiten la partición de tipo Hive. Si se solicita una partición de tipo Hive en un formato no admitido, se producirá un error, al igual que si se proporciona una especificación no válida. |
connectionId |
Opcional. La conexión que especifica las credenciales que se usarán para leer el almacenamiento externo, como Azure Blob, Cloud Storage o S3. El valor de connection_id puede tener el formato |
decimalTargetTypes[] |
Define la lista de posibles tipos de datos SQL a los que se convierten los valores decimales de origen. Esta lista y los parámetros de precisión y escala del campo decimal determinan el tipo de destino. En el orden NUMERIC, BIGNUMERIC y STRING, se elige un tipo si está en la lista especificada y si admite la precisión y la escala. STRING admite todos los valores de precisión y escala. Si ninguno de los tipos de la lista admite la precisión y la escala, se elegirá el tipo que admita el intervalo más amplio de la lista especificada. Si un valor supera el intervalo admitido al leer los datos, se producirá un error. Ejemplo: Supongamos que el valor de este campo es ["NUMERIC", "BIGNUMERIC"]. Si (precisión,escala) es:
Este campo no puede contener tipos duplicados. El orden de los tipos de este campo no se tiene en cuenta. Por ejemplo, ["BIGNUMERIC", "NUMERIC"] es lo mismo que ["NUMERIC", "BIGNUMERIC"] y NUMERIC siempre tiene prioridad sobre BIGNUMERIC. El valor predeterminado es ["NUMERIC", "STRING"] para ORC y ["NUMERIC"] para los demás formatos de archivo. |
avroOptions |
Opcional. Propiedades adicionales que se deben definir si sourceFormat se define como AVRO. |
jsonExtension |
Opcional. Opción de carga que se usa junto con JSON delimitado por saltos de línea de source_format para indicar que se está cargando una variante de JSON. Para cargar GeoJSON delimitado por líneas nuevas, especifica GEOJSON (y source_format debe tener el valor NEWLINE_DELIMITED_JSON). |
parquetOptions |
Opcional. Propiedades adicionales que se deben definir si sourceFormat se define como PARQUET. |
referenceFileSchemaUri |
Opcional. Al crear una tabla externa, el usuario puede proporcionar un archivo de referencia con el esquema de la tabla. Esta opción está habilitada para los siguientes formatos: AVRO, PARQUET y ORC. |
metadataCacheMode |
Opcional. Modo de caché de metadatos de la tabla. Defina este valor para habilitar el almacenamiento en caché de metadatos de fuentes de datos externas. |
timestampTargetPrecision[] |
Precisión (número máximo de dígitos totales en base 10) de los segundos de los tipos TIMESTAMP que se permiten en la tabla de destino en el modo de detección automática. Disponible en formato CSV. En el caso del formato CSV, los valores posibles son: Not Specified, [], o [6]: marca de tiempo(6) para todas las columnas TIMESTAMP detectadas automáticamente [6, 12]: marca de tiempo(6) para todas las columnas TIMESTAMP detectadas automáticamente que tengan menos de 6 dígitos de subsegundos. timestamp(12) para todas las columnas TIMESTAMP detectadas automáticamente que tengan más de 6 dígitos de subsegundos. [12]: marca de tiempo(12) para todas las columnas TIMESTAMP detectadas automáticamente. El orden de los elementos de esta matriz se ignora. Las entradas que tengan una precisión mayor que la precisión de destino más alta de esta matriz se truncarán. |
Campo de unión
|
|
objectMetadata |
Opcional. ObjectMetadata se usa para crear tablas de objetos. Las tablas de objetos contienen una lista de objetos (con sus metadatos) que se encuentran en los source_uris. Si se define ObjectMetadata, se debe omitir source_format. Actualmente, SIMPLE es el único tipo de metadatos de objeto admitido. |
Campo de unión
|
|
timeZone |
Opcional. Zona horaria que se usa al analizar valores de marca de tiempo que no tienen información específica sobre la zona horaria (por ejemplo, 2024-04-20 12:34:56). El formato esperado es una cadena de zona horaria de la IANA (por ejemplo, America/Los_Angeles). |
Campo de unión
|
|
dateFormat |
Opcional. Formato usado para analizar valores DATE. Admite valores de estilo C y SQL. |
Campo de unión
|
|
datetimeFormat |
Opcional. Formato usado para analizar valores DATETIME. Admite valores de estilo C y SQL. |
Campo de unión
|
|
timeFormat |
Opcional. Formato usado para analizar los valores TIME. Admite valores de estilo C y SQL. |
Campo de unión
|
|
timestampFormat |
Opcional. Formato usado para analizar los valores de TIMESTAMP. Admite valores de estilo C y SQL. |
| Representación JSON |
|---|
{ "value": integer } |
| Campos | |
|---|---|
value |
Valor int32. |
| Representación JSON |
|---|
{ "fieldDelimiter": string, "skipLeadingRows": string, "quote": string, "allowQuotedNewlines": boolean, "allowJaggedRows": boolean, "encoding": string, "preserveAsciiControlCharacters": boolean, "nullMarker": string, "nullMarkers": [ string ], "sourceColumnMatch": string } |
| Campos | |
|---|---|
fieldDelimiter |
Opcional. El carácter separador de los campos de un archivo CSV. El separador se interpreta como un solo byte. En los archivos codificados en ISO-8859-1, se puede usar cualquier carácter como separador. En los archivos codificados en UTF-8, los caracteres representados en el intervalo decimal 1-127 (U+0001-U+007F) se pueden usar sin modificaciones. En los caracteres UTF-8 codificados con varios bytes (es decir, U+0080 y superiores), solo se usará el primer byte para separar los campos. Los bytes restantes se tratarán como parte del campo. BigQuery también admite la secuencia de escape "\t" (U+0009) para especificar un separador de tabulaciones. El valor predeterminado es una coma (",", U+002C). |
skipLeadingRows |
Opcional. Número de filas de la parte superior de un archivo CSV que BigQuery omitirá al leer los datos. El valor predeterminado es 0. Esta propiedad es útil si el archivo tiene filas de encabezado que deben omitirse. Cuando la detección automática está activada, el comportamiento es el siguiente:
|
quote |
Opcional. Valor que se usa para entrecomillar secciones de datos en un archivo CSV. BigQuery convierte la cadena a la codificación ISO-8859-1 y, a continuación, usa el primer byte de la cadena codificada para dividir los datos en su estado binario sin procesar. El valor predeterminado es una comilla doble ("). Si sus datos no contienen secciones entre comillas, asigne a la propiedad el valor de una cadena vacía. Si sus datos contienen caracteres de salto de línea entre comillas, también debe asignar el valor "true" a la propiedad allowQuotedNewlines. Para incluir un carácter de comillas específico en un valor entre comillas, añada otro carácter de comillas igual antes. Por ejemplo, si quiere usar el carácter predeterminado ", utilice "". |
allowQuotedNewlines |
Opcional. Indica si BigQuery debe permitir secciones de datos entre comillas que contengan caracteres de salto de línea en un archivo CSV. El valor predeterminado es false. |
allowJaggedRows |
Opcional. Indica si BigQuery debe aceptar filas a las que les faltan columnas opcionales finales. Si es true, BigQuery trata las columnas finales que faltan como valores nulos. Si es falso, los registros a los que les faltan columnas finales se tratan como registros incorrectos y, si hay demasiados registros incorrectos, se devuelve un error no válido en el resultado del trabajo. El valor predeterminado es false. |
encoding |
Opcional. La codificación de caracteres de los datos. Los valores admitidos son UTF-8, ISO-8859-1, UTF-16BE, UTF-16LE, UTF-32BE y UTF-32LE. El valor predeterminado es UTF-8. BigQuery decodifica los datos después de que los datos binarios sin procesar se hayan dividido mediante los valores de las propiedades quote y fieldDelimiter. |
preserveAsciiControlCharacters |
Opcional. Indica si se conservan los caracteres de control ASCII insertados (los primeros 32 caracteres de la tabla ASCII, de "\x00" a "\x1F"). |
nullMarker |
Opcional. Especifica una cadena que representa un valor nulo en un archivo CSV. Por ejemplo, si especifica "\N", BigQuery interpreta "\N" como un valor nulo al consultar un archivo CSV. El valor predeterminado es una cadena vacía. Si asigna a esta propiedad un valor personalizado, BigQuery generará un error si hay una cadena vacía en todos los tipos de datos, excepto en STRING y BYTE. En el caso de las columnas STRING y BYTE, BigQuery interpreta la cadena vacía como un valor vacío. |
nullMarkers[] |
Opcional. Lista de cadenas representadas como valor NULL de SQL en un archivo CSV. null_marker y null_markers no se pueden definir al mismo tiempo. Si se define null_marker, no se debe definir null_markers. Si se define null_markers, no se debe definir null_marker. Si se definen null_marker y null_markers al mismo tiempo, se producirá un error de usuario. Cualquier cadena incluida en null_markers, incluida la cadena vacía, se interpretará como NULL de SQL. Esto se aplica a todos los tipos de columnas. |
sourceColumnMatch |
Opcional. Controla la estrategia utilizada para asociar las columnas cargadas al esquema. Si no se define, se elige un valor predeterminado adecuado en función de cómo se proporcione el esquema. Si se usa la detección automática, las columnas se emparejan por nombre. De lo contrario, las columnas se emparejan por posición. Esto se hace para mantener la retrocompatibilidad. Los valores aceptados son: POSITION: coincide por posición. Se presupone que las columnas están ordenadas de la misma forma que el esquema. NAME: coincide por nombre. De esta forma, la fila de encabezado se lee como nombres de columna y se reordenan las columnas para que coincidan con los nombres de los campos del esquema. |
| Representación JSON |
|---|
{ "encoding": string } |
| Campos | |
|---|---|
encoding |
Opcional. La codificación de caracteres de los datos. Los valores admitidos son UTF-8, UTF-16BE, UTF-16LE, UTF-32BE y UTF-32LE. El valor predeterminado es UTF-8. |
| Representación JSON |
|---|
{
"columnFamilies": [
{
object ( |
| Campos | |
|---|---|
columnFamilies[] |
Opcional. Lista de familias de columnas que se van a exponer en el esquema de la tabla junto con sus tipos. Esta lista restringe las familias de columnas a las que se puede hacer referencia en las consultas y especifica sus tipos de valor. Puedes usar esta lista para hacer conversiones de tipo. Consulta el campo "type" para obtener más información. Si dejas esta lista vacía, todas las familias de columnas estarán presentes en el esquema de la tabla y sus valores se leerán como BYTES. Durante una consulta, solo se leen de Bigtable las familias de columnas a las que se hace referencia en esa consulta. |
ignoreUnspecifiedColumnFamilies |
Opcional. Si el campo es true, las familias de columnas que no se especifican en la lista columnFamilies no se exponen en el esquema de la tabla. De lo contrario, se leen con valores de tipo BYTES. El valor predeterminado es false. |
readRowkeyAsString |
Opcional. Si el campo es true, se leerán las familias de columnas de la clave de fila y se convertirán en una cadena. De lo contrario, se leen con valores de tipo BYTES y los usuarios deben convertirlos manualmente con CAST si es necesario. El valor predeterminado es false. |
outputColumnFamiliesAsJson |
Opcional. Si el campo es true, cada familia de columnas se leerá como una sola columna JSON. De lo contrario, se leen como una estructura de celda repetida que contiene tuplas de marca de tiempo y valor. El valor predeterminado es false. |
| Representación JSON |
|---|
{ "familyId": string, "type": string, "encoding": string, "columns": [ { object ( |
| Campos | |
|---|---|
familyId |
Identificador de la familia de columnas. |
type |
Opcional. Tipo al que se convertirá el valor de las celdas de esta familia de columnas. Se espera que los valores se codifiquen mediante la función Bytes.toBytes de HBase cuando se use el valor de codificación BINARY. Se permiten los siguientes tipos de BigQuery (distingue entre mayúsculas y minúsculas):
El tipo predeterminado es BYTES. Esto se puede anular en una columna específica si se incluye en "columns" y se especifica un tipo. |
encoding |
Opcional. La codificación de los valores cuando el tipo no es STRING. Los valores de codificación aceptados son: TEXT: indica que los valores son cadenas de texto alfanuméricas. BINARY: indica que los valores se codifican mediante la familia de funciones Bytes.toBytes de HBase. PROTO_BINARY: indica que los valores se codifican mediante mensajes proto serializados. Solo se puede usar en combinación con el tipo JSON. Esto se puede anular en una columna específica incluyéndola en "columns" y especificando una codificación para ella. |
columns[] |
Opcional. Listas de columnas que deben exponerse como campos individuales en lugar de como una lista de pares (nombre de columna, valor). Se puede acceder a todas las columnas cuyo calificador coincida con un calificador de esta lista como |
onlyReadLatest |
Opcional. Si se define este valor, solo se expondrá la versión más reciente del valor de todas las columnas de esta familia de columnas. Esto se puede anular en una columna específica si se incluye en "columns" y se especifica un ajuste diferente para esa columna. |
protoConfig |
Opcional. Configuraciones específicas de Protobuf. Solo se aplican cuando la codificación es PROTO_BINARY. |
| Representación JSON |
|---|
{
"qualifierEncoded": string,
"qualifierString": string,
"fieldName": string,
"type": string,
"encoding": string,
"onlyReadLatest": boolean,
"protoConfig": {
object ( |
| Campos | |
|---|---|
qualifierEncoded |
[Obligatorio] Calificador de la columna. Las columnas de la familia de columnas principal que tienen este calificador exacto se muestran como el campo |
qualifierString |
Cadena de calificador. |
fieldName |
Opcional. Si el calificador no es un identificador de campo de BigQuery válido (es decir, no coincide con [a-zA-Z][a-zA-Z0-9_]*), se debe proporcionar un identificador válido como nombre de campo de columna, que se usará como nombre de campo en las consultas. |
type |
Opcional. El tipo al que se convertirán los valores de las celdas de esta columna. Se espera que los valores se codifiquen mediante la función Bytes.toBytes de HBase cuando se use el valor de codificación BINARY. Se permiten los siguientes tipos de BigQuery (distingue entre mayúsculas y minúsculas):
El tipo predeterminado es BYTES. "type" también se puede definir a nivel de familia de columnas. Sin embargo, el ajuste de este nivel tiene prioridad si el tipo se define en ambos niveles. |
encoding |
Opcional. La codificación de los valores cuando el tipo no es STRING. Los valores de codificación aceptados son: TEXT: indica que los valores son cadenas de texto alfanuméricas. BINARY: indica que los valores se codifican mediante la familia de funciones Bytes.toBytes de HBase. PROTO_BINARY: indica que los valores se codifican mediante mensajes proto serializados. Solo se puede usar en combinación con el tipo JSON. "encoding" también se puede definir a nivel de familia de columnas. Sin embargo, el ajuste de este nivel tiene prioridad si se define "encoding" en ambos niveles. |
onlyReadLatest |
Opcional. Si se define este valor, solo se mostrará la versión más reciente del valor de esta columna. "onlyReadLatest" también se puede definir a nivel de familia de columnas. Sin embargo, el ajuste de este nivel tiene prioridad si "onlyReadLatest" se define en ambos niveles. |
protoConfig |
Opcional. Configuraciones específicas de Protobuf. Solo se aplican cuando la codificación es PROTO_BINARY. |
| Representación JSON |
|---|
{ "value": string } |
| Campos | |
|---|---|
value |
Valor de bytes. Cadena codificada en base64. |
| Representación JSON |
|---|
{ "schemaBundleId": string, "protoMessageName": string } |
| Campos | |
|---|---|
schemaBundleId |
Opcional. ID del recurso SchemaBundle de Bigtable asociado a este protobuf. El ID debe aparecer en la tabla principal, por ejemplo: |
protoMessageName |
Opcional. El nombre completo del mensaje proto de protobuf. En el formato "foo.bar.Message". |
| Representación JSON |
|---|
{ "skipLeadingRows": string, "range": string } |
| Campos | |
|---|---|
skipLeadingRows |
Opcional. Número de filas de la parte superior de una hoja que BigQuery omitirá al leer los datos. El valor predeterminado es 0. Esta propiedad es útil si tiene filas de encabezado que deben omitirse. Si la detección automática está activada, el comportamiento es el siguiente: * skipLeadingRows no especificado: la detección automática intenta detectar los encabezados en la primera fila. Si no se detectan, la fila se lee como datos. De lo contrario, los datos se leen a partir de la segunda fila. * skipLeadingRows es 0: indica a la detección automática que no hay encabezados y que los datos deben leerse a partir de la primera fila. * skipLeadingRows = N > 0: detecta automáticamente las filas N-1 y trata de detectar los encabezados en la fila N. Si no se detectan encabezados, se omite la fila N. De lo contrario, se usa la fila N para extraer los nombres de las columnas del esquema detectado. |
range |
Opcional. Intervalo de una hoja desde la que se va a consultar. Solo se usa cuando no está vacío. Formato habitual: nombre_hoja!id_celda_superior_izquierda:id_celda_inferior_derecha. Por ejemplo: hoja1!A1:B20 |
| Representación JSON |
|---|
{ "mode": string, "sourceUriPrefix": string, "requirePartitionFilter": boolean, "fields": [ string ] } |
| Campos | |
|---|---|
mode |
Opcional. Cuando se define, indica qué modo de partición de Hive se debe usar al leer datos. Se admiten los modos siguientes:
No todos los formatos de almacenamiento admiten la partición de Hive. Si se solicita la partición de Hive en un formato no compatible, se producirá un error. Actualmente, se admiten los formatos JSON, CSV, ORC, Avro y Parquet. |
sourceUriPrefix |
Opcional. Cuando se solicita la detección de particiones de Hive, se debe requerir un prefijo común para todos los URIs de origen. El prefijo debe terminar inmediatamente antes de que empiece la codificación de la clave de partición. Por ejemplo, supongamos que tiene archivos con el siguiente diseño de datos: gs://bucket/path_to_table/dt=2019-06-01/country=USA/id=7/file.avro gs://bucket/path_to_table/dt=2019-05-31/country=CA/id=3/file.avro Cuando se solicita la partición de Hive con la detección AUTO o STRINGS, el prefijo común puede ser gs://bucket/path_to_table o gs://bucket/path_to_table/. La detección CUSTOM requiere codificar el esquema de partición inmediatamente después del prefijo común. En el caso de CUSTOM, cualquiera de los siguientes:
serían prefijos de URI de origen válidos. |
requirePartitionFilter |
Opcional. Si se le asigna el valor true, las consultas de esta tabla deben especificar un filtro de partición que se pueda usar para descartar particiones. Este campo solo debe ser true al crear una tabla externa permanente o al consultar una tabla externa temporal. Las cargas particionadas de Hive con require_partition_filter definido explícitamente como true fallarán. |
fields[] |
Solo de salida. En el caso de las tablas externas permanentes, este campo se rellena con las claves de partición de Hive en el orden en que se han inferido. Los tipos de las claves de partición se pueden deducir consultando el esquema de la tabla (que incluirá las claves de partición). No todas las APIs rellenarán este campo en el resultado. Por ejemplo, Tables.Get lo rellenará, pero Tables.List no contendrá este campo. |
| Representación JSON |
|---|
{ "useAvroLogicalTypes": boolean } |
| Campos | |
|---|---|
useAvroLogicalTypes |
Opcional. Si sourceFormat es "AVRO", indica si se deben interpretar los tipos lógicos como el tipo de datos de BigQuery correspondiente (por ejemplo, TIMESTAMP) en lugar de usar el tipo sin formato (por ejemplo, INTEGER). |
| Representación JSON |
|---|
{
"enumAsString": boolean,
"enableListInference": boolean,
"mapTargetType": enum ( |
| Campos | |
|---|---|
enumAsString |
Opcional. Indica si se debe inferir el tipo lógico ENUM de Parquet como CADENA en lugar de BYTES de forma predeterminada. |
enableListInference |
Opcional. Indica si se debe usar la inferencia de esquemas específicamente para el tipo lógico LIST de Parquet. |
mapTargetType |
Opcional. Indica cómo representar un mapa Parquet, si está presente. |
| Representación JSON |
|---|
{ "connectionId": string, "storageUri": string, "fileFormat": enum ( |
| Campos | |
|---|---|
connectionId |
Opcional. La conexión que especifica las credenciales que se usarán para leer y escribir en el almacenamiento externo, como Cloud Storage. El valor de connection_id puede tener el formato |
storageUri |
Opcional. Prefijo de ubicación completo de la carpeta externa en la que se almacenan los datos de la tabla. No se permite el carácter comodín "*". El URI debe tener el formato |
fileFormat |
Opcional. El formato de archivo en el que se almacenan los datos de la tabla. |
tableFormat |
Opcional. El formato de tabla en el que se almacenan las capturas de metadatos. |
| Representación JSON |
|---|
{ "estimatedBytes": string, "estimatedRows": string, "oldestEntryTime": string } |
| Campos | |
|---|---|
estimatedBytes |
Solo de salida. Estimación del límite inferior del número de bytes que hay actualmente en el búfer de streaming. |
estimatedRows |
Solo de salida. Estimación del límite inferior del número de filas que hay actualmente en el búfer de streaming. |
oldestEntryTime |
Solo de salida. Contiene la marca de tiempo de la entrada más antigua del búfer de streaming, en milisegundos desde la época, si el búfer de streaming está disponible. |
| Representación JSON |
|---|
{ "kmsKeyName": string } |
| Campos | |
|---|---|
kmsKeyName |
Opcional. Describe la clave de cifrado de Cloud KMS que se usará para proteger la tabla de BigQuery de destino. La cuenta de servicio de BigQuery asociada a tu proyecto necesita acceder a esta clave de cifrado. |
| Representación JSON |
|---|
{
"baseTableReference": {
object ( |
| Campos | |
|---|---|
baseTableReference |
Obligatorio. Referencia que describe el ID de la tabla de la que se ha creado una instantánea. |
snapshotTime |
Obligatorio. La hora a la que se hizo la instantánea de la tabla base. Este valor se indica en la respuesta JSON con el formato RFC3339. Usa RFC 3339, donde la salida generada siempre se normaliza con Z y usa 0, 3, 6 o 9 dígitos fraccionarios. También se aceptan otros desplazamientos distintos de "Z". Ejemplos: |
| Representación JSON |
|---|
{
"baseTableReference": {
object ( |
| Campos | |
|---|---|
baseTableReference |
Obligatorio. Referencia que describe el ID de la tabla que se ha clonado. |
cloneTime |
Obligatorio. La hora a la que se clonó la tabla base. Este valor se indica en la respuesta JSON con el formato RFC3339. Usa RFC 3339, donde la salida generada siempre se normaliza con Z y usa 0, 3, 6 o 9 dígitos fraccionarios. También se aceptan otros desplazamientos distintos de "Z". Ejemplos: |
| Representación JSON |
|---|
{
"type": enum ( |
| Campos | |
|---|---|
type |
Solo de salida. Especifica el tipo de restricción de conjunto de datos o tabla. |
| Representación JSON |
|---|
{ "primaryKey": { object ( |
| Campos | |
|---|---|
primaryKey |
Opcional. Representa una restricción de clave principal en las columnas de una tabla. Solo se incluye si la tabla tiene una clave principal. No se aplica la clave principal. |
foreignKeys[] |
Opcional. Solo se incluye si la tabla tiene una clave externa. La clave externa no se aplica. |
| Representación JSON |
|---|
{ "columns": [ string ] } |
| Campos | |
|---|---|
columns[] |
Obligatorio. Las columnas que componen la restricción de clave principal. |
| Representación JSON |
|---|
{ "name": string, "referencedTable": { object ( |
| Campos | |
|---|---|
name |
Opcional. Se define solo si se ha asignado un nombre a la restricción de clave externa. |
referencedTable |
Obligatorio. La tabla que contiene la clave principal y a la que hace referencia esta clave externa. |
columnReferences[] |
Obligatorio. Las columnas que componen la clave externa. |
| Representación JSON |
|---|
{ "referencingColumn": string, "referencedColumn": string } |
| Campos | |
|---|---|
referencingColumn |
Obligatorio. La columna que compone la clave externa. |
referencedColumn |
Obligatorio. La columna de la clave principal a la que hace referencia la columna_de_referencia. |
| Representación JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representación JSON |
|---|
{ "sourceTable": { object ( |
| Campos | |
|---|---|
sourceTable |
Obligatorio. Referencia de la tabla de origen que se replica. |
replicationIntervalMs |
Opcional. Especifica el intervalo con el que se sondea la tabla de origen para comprobar si hay actualizaciones. Es opcional. Si no se especifica, se aplicará el intervalo de replicación predeterminado. |
replicatedSourceLastRefreshTime |
Opcional. Solo de salida. Si la fuente es una vista materializada, este campo indica la última hora de actualización de la fuente. |
replicationStatus |
Opcional. Solo de salida. Estado de replicación de la replicación configurada. |
replicationError |
Opcional. Solo de salida. Error de replicación que detendrá de forma permanente la replicación de la tabla. |
| Representación JSON |
|---|
{
"parameters": {
string: string,
...
},
"storageDescriptor": {
object ( |
| Campos | |
|---|---|
parameters |
Opcional. Un mapa de los pares clave-valor que definen los parámetros y las propiedades de la tabla de código abierto. Se corresponde con los parámetros de la tabla del almacén de metadatos de Hive. Tamaño máximo de 4 MiB. Un objeto que contiene una lista de pares |
storageDescriptor |
Opcional. Un descriptor de almacenamiento que contiene información sobre el almacenamiento físico de esta tabla. |
connectionId |
Opcional. Un ID de conexión que especifica las credenciales que se deben usar para leer el almacenamiento externo, como Azure Blob, Cloud Storage o Amazon S3. Esta conexión es necesaria para leer la tabla de código abierto de BigQuery. El formato de connection_id debe ser |
| Representación JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
| Representación JSON |
|---|
{
"locationUri": string,
"inputFormat": string,
"outputFormat": string,
"serdeInfo": {
object ( |
| Campos | |
|---|---|
locationUri |
Opcional. La ubicación física de la tabla (por ejemplo, |
inputFormat |
Opcional. Especifica el nombre de clase completo de InputFormat (por ejemplo, "org.apache.hadoop.hive.ql.io.orc.OrcInputFormat"). La longitud máxima es de 128 caracteres. |
outputFormat |
Opcional. Especifica el nombre de clase completo de OutputFormat (por ejemplo, "org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat"). La longitud máxima es de 128 caracteres. |
serdeInfo |
Opcional. Información sobre el serializador y el deserializador. |
| Representación JSON |
|---|
{ "name": string, "serializationLibrary": string, "parameters": { string: string, ... } } |
| Campos | |
|---|---|
name |
Opcional. Nombre de SerDe. La longitud máxima es de 256 caracteres. |
serializationLibrary |
Obligatorio. Especifica el nombre de clase completo de la biblioteca de serialización responsable de la traducción de datos entre la representación de la tabla y las estructuras de formato de entrada y salida de bajo nivel subyacentes. La longitud máxima es de 256 caracteres. |
parameters |
Opcional. Pares clave-valor que definen los parámetros de inicialización de la biblioteca de serialización. Tamaño máximo de 10 KiB. Un objeto que contiene una lista de pares |
| Representación JSON |
|---|
{ "key": string, "value": string } |
| Campos | |
|---|---|
key |
|
value |
|
Anotaciones de herramientas
Pista destructiva: ❌ | Pista idempotente: ✅ | Pista de solo lectura: ✅ | Pista de mundo abierto: ❌