WRITE_API_TIMELINE_BY_FOLDER 檢視畫面
INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
檢視畫面包含目前專案 (包括子資料夾) 的父資料夾每分鐘的 BigQuery Storage Write API 攝入統計資料。
您可以查詢 INFORMATION_SCHEMA
Write API 檢視畫面,擷取使用 BigQuery Storage Write API 將資料擷取至 BigQuery 的歷來和即時資訊。詳情請參閱 BigQuery Storage Write API。
必要權限
如要查詢 INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
檢視畫面,您必須具備專案父資料夾的 bigquery.tables.list
身分與存取權管理 (IAM) 權限。
以下每個預先定義的 IAM 角色都包含上述權限:
roles/bigquery.admin
roles/bigquery.user
roles/bigquery.dataViewer
roles/bigquery.dataEditor
roles/bigquery.dataOwner
roles/bigquery.metadataViewer
roles/bigquery.resourceAdmin
如要進一步瞭解 BigQuery 權限,請參閱「使用身分與存取權管理功能控管存取權」。
結構定義
查詢 INFORMATION_SCHEMA
BigQuery Storage Write API 檢視畫面時,查詢結果會包含使用 BigQuery Storage Write API 將資料擷取至 BigQuery 的歷史資料和即時資訊。下列檢視畫面中的每個資料列都代表匯入特定資料表的統計資料,這些資料會在 start_timestamp
開始的一分鐘間隔內匯總。統計資料會依串流類型和錯誤代碼分組,因此每個時間戳記和資料表組合中,每個串流類型和遇到的錯誤代碼都會有一列資料列。成功的要求會將錯誤代碼設為 OK
。如果在特定時間範圍內,沒有任何資料擷取至資料表,則該資料表的對應時間戳記就不會顯示任何資料列。
INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_*
檢視畫面具有下列結構定義:
資料欄名稱 | 資料類型 | 值 |
---|---|---|
start_timestamp |
TIMESTAMP |
(分區欄) 匯總統計資料的 1 分鐘間隔開始時間戳記。 |
project_id |
STRING |
(叢集欄) 專案 ID。 |
project_number |
INTEGER |
專案編號。 |
dataset_id |
STRING |
(叢集資料欄) 資料集 ID。 |
table_id |
STRING |
表格 ID(叢集欄)。 |
stream_type |
STRING |
使用 BigQuery Storage Write API 擷取資料時使用的串流類型。這個值應為「DEFAULT」、「COMMITTED」、「BUFFERED」或「PENDING」其中之一。 |
error_code |
STRING |
此列指定要求傳回的錯誤代碼。成功要求的回應為「OK」。 |
total_requests |
INTEGER |
1 分鐘間隔內的要求總數。 |
total_rows |
INTEGER |
1 分鐘內所有要求的總列數。 |
total_input_bytes |
INTEGER |
1 分鐘間隔內所有資料列的位元組總數。 |
資料保留
這個檢視畫面包含過去 180 天內的 BigQuery Storage Write API 擷取記錄。
範圍和語法
對這個檢視表執行的查詢必須包含區域限定詞。如果未指定區域限定詞,系統會從所有區域擷取中繼資料。下表說明此檢視區域範圍:
檢視表名稱 | 資源範圍 | 區域範圍 |
---|---|---|
[PROJECT_ID.]`region-REGION`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER |
包含指定專案的資料夾 | REGION |
-
選用:
PROJECT_ID
: Google Cloud 專案的 ID。如果未指定,系統會使用預設專案。 -
REGION
:任一資料集區域名稱。例如:`region-us`
。
示例
- 如要查詢美國多區域中的資料,請使用
region-us.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
- 如要查詢歐盟多區域中的資料,請使用
region-eu.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
- 如要查詢 asia-northeast1 地區的資料,請使用
region-asia-northeast1.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER
如需可用地區的清單,請參閱「資料集位置」。
範例
範例 1:最近的 BigQuery Storage Write API 擷取失敗
以下範例會計算過去 30 分鐘內,專案資料夾中所有資料表的失敗要求總數,並按串流類型和錯誤代碼細分:
SELECT start_timestamp, stream_type, error_code, SUM(total_requests) AS num_failed_requests FROM `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER WHERE error_code != 'OK' AND start_timestamp > TIMESTAMP_SUB(CURRENT_TIMESTAMP, INTERVAL 30 MINUTE) GROUP BY start_timestamp, stream_type, error_code ORDER BY start_timestamp DESC;
結果大致如下:
+---------------------+-------------+------------------+---------------------+ | start_timestamp | stream_type | error_code | num_failed_requests | +---------------------+-------------+------------------+---------------------+ | 2023-02-24 00:25:00 | PENDING | NOT_FOUND | 5 | | 2023-02-24 00:25:00 | DEFAULT | INVALID_ARGUMENT | 1 | | 2023-02-24 00:25:00 | DEFAULT | DEADLINE_EXCEEDED| 4 | | 2023-02-24 00:24:00 | PENDING | INTERNAL | 3 | | 2023-02-24 00:24:00 | DEFAULT | INVALID_ARGUMENT | 1 | | 2023-02-24 00:24:00 | DEFAULT | DEADLINE_EXCEEDED| 2 | +---------------------+-------------+------------------+---------------------+
範例 2:每分鐘的細部資料 (所有要求,含錯誤代碼)
以下範例會計算專案資料夾中成功和失敗的附加要求,並按錯誤代碼類別細分。這項查詢可用於填入資訊主頁。
SELECT start_timestamp, SUM(total_requests) AS total_requests, SUM(total_rows) AS total_rows, SUM(total_input_bytes) AS total_input_bytes, SUM( IF( error_code IN ( 'INVALID_ARGUMENT', 'NOT_FOUND', 'CANCELLED', 'RESOURCE_EXHAUSTED', 'ALREADY_EXISTS', 'PERMISSION_DENIED', 'UNAUTHENTICATED', 'FAILED_PRECONDITION', 'OUT_OF_RANGE'), total_requests, 0)) AS user_error, SUM( IF( error_code IN ( 'DEADLINE_EXCEEDED','ABORTED', 'INTERNAL', 'UNAVAILABLE', 'DATA_LOSS', 'UNKNOWN'), total_requests, 0)) AS server_error, SUM(IF(error_code = 'OK', 0, total_requests)) AS total_error, FROM `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER GROUP BY start_timestamp ORDER BY start_timestamp DESC;
結果大致如下:
+---------------------+----------------+------------+-------------------+------------+--------------+-------------+ | start_timestamp | total_requests | total_rows | total_input_bytes | user_error | server_error | total_error | +---------------------+----------------+------------+-------------------+------------+--------------+-------------+ | 2020-04-15 22:00:00 | 441854 | 441854 | 23784853118 | 0 | 17 | 17 | | 2020-04-15 21:59:00 | 355627 | 355627 | 26101982742 | 8 | 0 | 13 | | 2020-04-15 21:58:00 | 354603 | 354603 | 26160565341 | 0 | 0 | 0 | | 2020-04-15 21:57:00 | 298823 | 298823 | 23877821442 | 2 | 0 | 2 | +---------------------+----------------+------------+-------------------+------------+--------------+-------------+
範例 3:有最多入站流量的資料表
以下範例會針對專案資料夾中流量最多的 10 個表格,傳回 BigQuery Storage Write API 攝入統計資料:
SELECT project_id, dataset_id, table_id, SUM(total_rows) AS num_rows, SUM(total_input_bytes) AS num_bytes, SUM(total_requests) AS num_requests FROM `region-us`.INFORMATION_SCHEMA.WRITE_API_TIMELINE_BY_FOLDER GROUP BY project_id, dataset_id, table_id ORDER BY num_bytes DESC LIMIT 10;
結果大致如下:
+----------------------+------------+-------------------------------+------------+----------------+--------------+ | project_id | dataset_id | table_id | num_rows | num_bytes | num_requests | +----------------------+------------+-------------------------------+------------+----------------+--------------+ | my-project1 | dataset1 | table1 | 8016725532 | 73787301876979 | 8016725532 | | my-project2 | dataset1 | table2 | 26319580 | 34199853725409 | 26319580 | | my-project1 | dataset2 | table1 | 38355294 | 22879180658120 | 38355294 | | my-project3 | dataset1 | table3 | 270126906 | 17594235226765 | 270126906 | | my-project2 | dataset2 | table2 | 95511309 | 17376036299631 | 95511309 | | my-project2 | dataset2 | table3 | 46500443 | 12834920497777 | 46500443 | | my-project3 | dataset2 | table4 | 25846270 | 7487917957360 | 25846270 | | my-project4 | dataset1 | table4 | 18318404 | 5665113765882 | 18318404 | | my-project4 | dataset1 | table5 | 42829431 | 5343969665771 | 42829431 | | my-project4 | dataset1 | table6 | 8771021 | 5119004622353 | 8771021 | +----------------------+------------+-------------------------------+------------+----------------+--------------+