이 문서에서는 SQL 기반 쿼리 인터페이스를 제공하는 로그 애널리틱스를 사용하여 로그 및 트레이스 데이터를 쿼리하고 분석하는 방법을 설명합니다. SQL을 사용하면 집계 분석을 실행하여 유용한 정보를 생성하고 추세를 파악할 수 있습니다. 쿼리 결과를 보려면 표 형식을 사용하거나 차트로 데이터를 시각화합니다. 이러한 표와 차트를 맞춤 대시보드에 저장할 수도 있습니다.
연결된 BigQuery 데이터 세트 정보
로그 애널리틱스 페이지를 사용하는 경우 로그 데이터, 트레이스 데이터 또는 두 데이터 유형을 모두 쿼리하는 데 연결된 BigQuery 데이터 세트가 필요하지 않습니다.
다음 작업을 수행하려면 연결된 BigQuery 데이터 세트가 필요합니다.
- 로그 또는 추적 데이터를 다른 BigQuery 데이터 세트와 조인합니다.
- BigQuery Studio 페이지 또는 Looker Studio와 같은 다른 서비스에서 로그 또는 추적 데이터를 쿼리합니다.
- BigQuery 예약된 슬롯에서 쿼리를 실행하여 로그 애널리틱스에서 실행되는 쿼리의 성능을 향상시킵니다.
- SQL 쿼리 결과를 모니터링하는 알림 정책을 만듭니다. 이 기능은 로그 데이터를 쿼리할 때만 지원됩니다. 자세한 내용은 알림 정책으로 SQL 쿼리 결과 모니터링을 참조하세요.
이 문서에서는 데이터 유형별 프로세스가 필요한 연결된 데이터 세트를 만드는 방법을 설명하지 않습니다. 연결된 데이터 세트를 만드는 방법을 알아보려면 연결된 데이터 세트를 사용하여 로그 데이터 쿼리 또는 연결된 데이터 세트를 사용하여 트레이스 데이터 쿼리를 참고하세요.
시작하기 전에
- Google Cloud 계정에 로그인합니다. Google Cloud를 처음 사용하는 경우 계정을 만들고 Google 제품의 실제 성능을 평가해 보세요. 신규 고객에게는 워크로드를 실행, 테스트, 배포하는 데 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
관측 가능성 API를 사용 설정합니다.
API 사용 설정에 필요한 역할
API를 사용 설정하려면
serviceusage.services.enable권한이 포함된 서비스 사용량 관리자 IAM 역할 (roles/serviceusage.serviceUsageAdmin)이 필요합니다. 역할 부여 방법 알아보기 -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
관측 가능성 API를 사용 설정합니다.
API 사용 설정에 필요한 역할
API를 사용 설정하려면
serviceusage.services.enable권한이 포함된 서비스 사용량 관리자 IAM 역할 (roles/serviceusage.serviceUsageAdmin)이 필요합니다. 역할 부여 방법 알아보기 -
로그 애널리틱스 페이지를 로드하고, 추적 데이터에 대한 비공개 쿼리를 작성, 실행, 저장하는 데 필요한 권한을 얻으려면 관리자에게 다음 IAM 역할을 부여해 달라고 요청하세요.
-
관측 가능성 뷰 접근자 (
roles/observability.viewAccessor)를 부여해야 합니다. 쿼리할 관측 가능성 뷰에 대한 이 역할은 특정 뷰에 대한 권한 부여를 제한할 수 있는 IAM 조건을 지원합니다. 역할 부여에 조건을 연결하지 않으면 주 구성원이 모든 관측 가능성 뷰에 액세스할 수 있습니다. 관측 가능성 뷰는 공개 프리뷰 버전입니다. -
프로젝트의 관측 가능성 분석 사용자 (
roles/observability.analyticsUser) 이 역할에는 비공개 쿼리를 저장하고 실행하고 공유 쿼리를 실행하는 데 필요한 권한이 포함되어 있습니다. -
프로젝트의 로그 뷰어(
roles/logging.viewer) -
쿼리하려는 로그 뷰를 저장하는 프로젝트에 대한 로그 뷰 접근자 (
roles/logging.viewAccessor).
역할 부여에 대한 자세한 내용은 프로젝트, 폴더, 조직에 대한 액세스 관리를 참조하세요.
-
관측 가능성 뷰 접근자 (
로그 및 트레이스 데이터 쿼리
이 섹션에서는 로그 및 트레이스 데이터를 쿼리하는 데 사용할 수 있는 접근 방식을 설명합니다.
- 시스템 정의 쿼리를 로드하고, 이 쿼리를 수정하고, 쿼리를 실행합니다.
- 맞춤 쿼리를 입력하고 실행합니다. 예를 들어 기존 쿼리를 붙여넣거나 직접 작성할 수 있습니다. 맞춤 쿼리에는 조인, 중첩된 쿼리, 기타 복잡한 SQL 문이 포함될 수 있습니다. 예시는 샘플 SQL 쿼리를 참고하세요.
- 메뉴를 선택하여 쿼리를 빌드한 다음 해당 쿼리를 실행합니다. 로그 애널리틱스에서 선택한 항목을 SQL 쿼리로 변환하며, 이 쿼리는 보고 수정할 수 있습니다.
시스템 정의 쿼리 로드, 수정, 실행
-
Google Cloud 콘솔에서 manage_search 로그 애널리틱스 페이지로 이동합니다.
검색창을 사용하여 이 페이지를 찾은 경우 부제목이 Logging인 결과를 선택합니다.
보기 메뉴에서 보기를 선택합니다.
쿼리할 뷰를 찾으려면 filter_list 필터 막대를 사용하거나 목록을 스크롤합니다.
Logs 섹션에 나열된 로그 뷰는 버킷 및 뷰 ID별로 정렬됩니다.
Analytics Views 섹션에 나열된 분석 뷰는 뷰의 위치와 ID에 따라 정렬됩니다. 관측 가능성 뷰는 공개 프리뷰 버전입니다.
트레이스 섹션에 나열된 트레이스 뷰가 하나 있습니다. 관측 가능성 뷰는 공개 프리뷰 버전입니다.
_Trace.Spans._AllSpans라는 뷰가 표시되지 않으면Google Cloud 프로젝트에_Trace라는 관측 가능성 버킷이 포함되어 있지 않은 것입니다. 이 실패를 해결하는 방법은 추적 스토리지 초기화 실패를 참고하세요.
다음 중 하나를 수행합니다.
메뉴 선택으로 쿼리를 정의할 수 있는 쿼리 빌더를 사용하는 시스템 정의 쿼리를 로드하려면 쿼리 창에 쿼리 빌더가 표시되어 있는지 확인하세요. SQL 편집기가 표시되면 tune 빌더를 클릭합니다.
JSON 값을 추출하는 시스템 정의 쿼리를 로드하려면 쿼리 창에 SQL 편집기가 표시되어야 합니다. 이 창에 쿼리 빌더가 표시되면 code SQL을 클릭합니다.
스키마 창에서 쿼리를 선택한 다음 덮어쓰기를 클릭합니다.
쿼리 창에 시스템 정의 쿼리가 표시됩니다. 쿼리 빌더 모드를 선택했지만 SQL 쿼리를 보려면 code SQL을 클릭합니다.
선택사항: 쿼리를 수정합니다.
쿼리를 실행하려면 툴바로 이동하여 쿼리 실행을 선택합니다.
로그 애널리틱스에서 쿼리 결과를 표로 표시합니다. 하지만 차트를 만들 수 있으며 표나 차트를 커스텀 대시보드에 저장할 수도 있습니다. 자세한 내용은 SQL 쿼리 결과 차트로 표시를 참고하세요.
툴바에 BigQuery에서 실행이 표시되면 기본 쿼리 엔진을 사용하도록 로그 애널리틱스를 전환해야 합니다. 이 설정을 변경하려면 쿼리 창의 툴바에서 settings 설정을 클릭한 다음 애널리틱스 (기본값)를 선택합니다.
맞춤 쿼리 입력 및 실행
SQL 쿼리를 입력하려면 다음을 수행합니다.
-
Google Cloud 콘솔에서 manage_search 로그 애널리틱스 페이지로 이동합니다.
검색창을 사용하여 이 페이지를 찾은 경우 부제목이 Logging인 결과를 선택합니다.
쿼리 창에서 code SQL을 클릭합니다.
기간을 지정하려면 기간 선택기를 사용하는 것이 좋습니다.
timestamp필드를 지정하는WHERE절을 추가하면 이 값이 기간 선택기의 설정을 재정의하고 해당 선택기는 사용 중지됩니다.예시는 샘플 SQL 쿼리를 참고하세요.
쿼리하는 뷰에 따라
FROM절의 형식이 결정됩니다.로그 데이터
로그 뷰 또는 분석 뷰를 쿼리할 수 있습니다.
FROM절에는 다음 형식을 사용합니다.로그 보기:
FROM `PROJECT_ID.LOCATION.BUCKET_ID.LOG_VIEW_ID`애널리틱스 보기:
FROM `analytics_view.PROJECT_ID.LOCATION.ANALYTICS_VIEW_ID`
이전 표현식의 필드는 다음과 같은 의미를 갖습니다.
- PROJECT_ID: 프로젝트 식별자
- LOCATION: 로그 뷰 또는 분석 뷰의 위치
- BUCKET_ID: 로그 버킷의 이름 또는 ID
- LOG_VIEW_ID: 로그 뷰의 식별자로, 100자(영문 기준)로 제한되며 문자, 숫자, 밑줄, 하이픈만 포함할 수 있습니다.
- ANALYTICS_VIEW_ID: 분석 뷰의 ID로, 100자(영문 기준)로 제한되며 문자, 숫자, 밑줄, 하이픈만 포함할 수 있습니다.
쿼리 창에
FROM문을 참조하는 오류 메시지가 표시되면 뷰를 찾을 수 없습니다. 이 실패를 해결하는 방법은FROM오류: 절에 정확히 하나의 로그 뷰가 포함되어야 함을 참고하세요.Trace 데이터
SQL 편집기에
_Trace.Spans._AllSpans뷰의 정규화된 이름이 표시됩니다. 형식은 다음과 같습니다.FROM `PROJECT_ID.LOCATION._Trace.Spans._AllSpans`이전 표현식의 필드는 다음과 같은 의미를 갖습니다.
- PROJECT_ID: 프로젝트 식별자
- LOCATION: 관측 가능성 버킷의 위치입니다.
쿼리 창에
FROM문을 참조하는 오류 메시지가 표시되면 뷰를 찾을 수 없습니다. 이 실패를 해결하는 방법은 뷰가 존재하지 않는다는 오류 메시지를 참고하세요.
쿼리를 실행하려면 툴바로 이동하여 쿼리 실행을 선택합니다.
로그 애널리틱스에서 쿼리 결과를 표로 표시합니다. 하지만 차트를 만들 수 있으며 표나 차트를 커스텀 대시보드에 저장할 수도 있습니다. 자세한 내용은 SQL 쿼리 결과 차트로 표시를 참고하세요.
툴바에 BigQuery에서 실행이 표시되면 기본 쿼리 엔진을 사용하도록 로그 애널리틱스를 전환해야 합니다. 이 설정을 변경하려면 쿼리 창의 툴바에서 settings 설정을 클릭한 다음 애널리틱스 (기본값)를 선택합니다.
쿼리 빌드, 수정, 실행
쿼리 빌더 인터페이스를 사용하면 메뉴에서 선택하여 쿼리를 빌드할 수 있습니다. 로그 애널리틱스에서 선택한 항목을 SQL 쿼리로 변환하며, 이 쿼리를 보고 수정할 수 있습니다. 예를 들어 쿼리 빌더 인터페이스를 사용하여 시작한 다음 SQL 편집기로 전환하여 쿼리를 미세 조정할 수 있습니다.
로그 애널리틱스는 항상 쿼리 빌더 인터페이스의 메뉴 선택을 SQL 쿼리로 변환할 수 있습니다. 하지만 모든 SQL 쿼리가 쿼리 빌더 인터페이스로 표현될 수 있는 것은 아닙니다. 예를 들어 조인이 있는 쿼리는 이 인터페이스로 나타낼 수 없습니다.
쿼리를 빌드하려면 다음 단계를 따르세요.
-
Google Cloud 콘솔에서 manage_search 로그 애널리틱스 페이지로 이동합니다.
검색창을 사용하여 이 페이지를 찾은 경우 부제목이 Logging인 결과를 선택합니다.
쿼리 창에 SQL 편집기가 표시되면 tune 빌더를 선택합니다. 그러면 쿼리 빌더 창이 열립니다.
소스 메뉴를 사용하여 쿼리할 뷰를 선택합니다. 선택한 항목이 SQL 쿼리의
FROM절에 매핑됩니다.선택사항: 다음 메뉴를 사용하여 결과 표를 제한하거나 서식을 지정합니다.
모든 필드 검색: 일치하는 문자열을 검색합니다. 선택한 항목은 SQL 쿼리의
WHERE절에 매핑됩니다.열: 결과 표에 표시할 열을 선택합니다. 선택한 항목은 SQL 쿼리의
SELECT절에 매핑됩니다.이 메뉴에서 필드 이름을 선택하면 대화상자가 열립니다. 이 대화상자에서 다음 작업을 할 수 있습니다.
메뉴를 사용하여 데이터를 집계하거나 그룹화합니다.
구문 오류를 방지하기 위해 한 열에 적용하는 집계 및 그룹화는 다른 열에도 자동으로 적용됩니다. 항목을 집계하고 그룹화하는 방법의 예는 쿼리 빌더를 사용하여 데이터 그룹화 및 집계를 참고하세요.
모든 유형의 값을 지정된 다른 데이터 유형으로 변환합니다. 자세한 내용은
CAST문서를 참고하세요.정규 표현식을 사용하여 값의 하위 문자열을 추출합니다. 자세한 내용은
REGEXP_EXTRACT문서를 참고하세요.
필터: 특정 속성 또는 스팬 ID를 포함하는 스팬으로 쿼리를 제한하려는 경우 필터를 추가합니다. 메뉴에 사용 가능한 모든 필터 옵션이 표시됩니다. 선택한 항목이 SQL 쿼리의
WHERE절에 매핑됩니다.정렬 기준: 정렬할 열과 정렬이 오름차순인지 내림차순인지 설정합니다. 선택한 항목이 SQL 쿼리의
ORDER BY절에 매핑됩니다.한도: 결과 테이블의 최대 행 수를 설정합니다. 선택한 항목은 SQL 쿼리의
LIMIT절에 매핑됩니다.
쿼리를 실행하려면 툴바로 이동하여 쿼리 실행을 선택합니다.
로그 애널리틱스에서 쿼리 결과를 표로 표시합니다. 하지만 차트를 만들 수 있으며 표나 차트를 커스텀 대시보드에 저장할 수도 있습니다. 자세한 내용은 SQL 쿼리 결과 차트로 표시를 참고하세요.
툴바에 BigQuery에서 실행이 표시되면 기본 쿼리 엔진을 사용하도록 로그 애널리틱스를 전환해야 합니다. 이 설정을 변경하려면 쿼리 창의 툴바에서 settings 설정을 클릭한 다음 애널리틱스 (기본값)를 선택합니다.
예: 쿼리 빌더를 사용하여 데이터 그룹화 및 집계
쿼리 빌더에서 열을 선택하면 각 필드에 그룹화 및 집계를 추가할 수 있는 메뉴가 포함됩니다. 그룹화를 사용하면 하나 이상의 열의 값을 기준으로 데이터를 그룹으로 정리할 수 있으며, 집계를 사용하면 이러한 그룹에 대한 계산을 실행하여 단일 값을 반환할 수 있습니다.
열 요소에서 선택한 각 필드에는 다음 옵션이 있는 메뉴가 연결되어 있습니다.
- 없음: 이 필드로 그룹화하거나 집계하지 않습니다.
- 집계: 필드에 집계가 선택된 경우를 제외하고 열 요소에 나열된 필드를 그룹화합니다. 이러한 필드의 경우 각 그룹화의 모든 항목에 작업을 실행하여 값을 계산합니다. 작업은 필드의 평균을 계산하거나 각 그룹화의 항목 수를 계산하는 것과 같은 작업일 수 있습니다.
- Group By: Columns 요소에 나열된 모든 필드별로 항목을 그룹화합니다.
다음은 항목을 그룹화한 다음 특정 유형의 집계를 실행하는 쿼리를 구성하는 방법을 보여줍니다.
로그 데이터
이 예에서는 쿼리 빌더를 사용하여 심각도 및 타임스탬프별로 로그 항목을 그룹화한 다음 각 그룹의 http_request.response_size 필드의 평균을 계산하는 방법을 설명합니다.
데이터를 그룹화하고 집계하는 쿼리를 빌드하려면 쿼리 빌더 메뉴에서 다음을 선택합니다.
열 메뉴에서
timestamp,severity,http_request.response_size필드를 선택합니다.데이터를 그룹화하려면
timestamp필드를 클릭하여 설정 대화상자를 엽니다. 이 대화상자에서 Group by 옵션을 선택하고 Truncation Granularity를HOUR로 설정합니다. 그런 다음 구문 오류를 방지하기 위해 그룹화가 다른 모든 필드에 자동으로 적용됩니다. 그룹화를 적용할 수 없는 잘못된 필드가 있으면 오류 메시지가 표시됩니다. 이 오류를 해결하려면 메뉴에서 잘못된 필드를 삭제하세요.http_request.response_size필드에서 집계를 실행하려면 필드를 클릭하여 설정 대화상자를 엽니다. 이 대화상자에서 집계를 선택합니다. 집계 메뉴에서 평균을 클릭합니다.
필터 메뉴에서
http_request.response_size를 추가하고 비교 연산자를IS NOT NULL로 설정합니다. 이 필터는response_size값이 포함된 로그 항목과 일치합니다.쿼리 빌더 메뉴는 다음과 유사하게 표시됩니다.

쿼리를 실행하려면 툴바로 이동하여 쿼리 실행을 선택합니다.
이 쿼리의 결과는 다음과 유사합니다.
+-----------------------------------+----------+---------------+ | Row | hour_timestamp | severity | response_size | | | TIMESTAMP | STRING | INTEGER | +-----+-----------------------------+----------+---------------+ | 1 | 2025-10-06 16:00:00.000 UTC | NOTICE | 3082 | | 2 | 2025-10-06 17:00:00.000 UTC | WARNING | 338 | | 3 | 2025-10-06 16:00:00.000 UTC | INFO | 149 |
이전 예의 해당 SQL 쿼리는 다음과 같습니다.
SELECT
-- Truncate the timestamp by hour.
TIMESTAMP_TRUNC( timestamp, HOUR ) AS hour_timestamp,
severity,
-- Compute average response_size.
AVG( http_request.response_size ) AS average_http_request_response_size
FROM
`PROJECT_ID.LOCATION.BUCKET_ID.LOG_VIEW_ID`
WHERE
-- Matches log entries that have a response_size.
http_request.response_size IS NOT NULL
GROUP BY
-- Group log entries by timestamp and severity.
TIMESTAMP_TRUNC( timestamp, HOUR ),
severity
LIMIT
1000
Trace 데이터
이 예에서는 쿼리 빌더를 사용하여 시작 시간, 스팬 이름, 스팬 종류별로 스팬을 그룹화하는 방법을 설명합니다. 그런 다음 각 그룹에 대해 쿼리는 평균 지속 시간을 나노초 단위로 계산합니다.
이 쿼리를 생성하려면 다음을 수행하세요.
- 열 메뉴에서
start_time,name,kind,duration_nano필드를 선택합니다. - 시작 시간을 시간 단위로 자르려면
start_time열에서 메뉴를 펼치고 그룹화 기준을 선택합니다. 세부사항 메뉴가 시간으로 설정되어 있는지 확인합니다. 적용을 클릭합니다.
열에 그룹화 기준을 선택하면 시스템에서 모든 열을 기준으로 항목을 그룹화합니다. 이 예시에서 항목은
start_time, 스팬 이름, 스팬 종류, 기간 값의 잘린 값으로 그룹화됩니다.하지만 이 예의 목표는 잘린 시간, 스팬 이름, 스팬 종류별로 항목을 그룹화한 다음 각 그룹의 평균 기간을 계산하는 것입니다. 다음 단계에서는 그룹화를 수정하고 집계를 추가합니다.
duration_nano필드의 메뉴를 펼치고 집계를 선택한 다음 집계 필드를 평균으로 설정합니다.쿼리를 실행하면 각 행은 잘린 시간, 스팬 이름, 스팬 종류로 구성된 그룹에 해당합니다. 각 행의 마지막 항목은 해당 그룹의 모든 항목에 대한 평균 기간입니다.
이 쿼리의 결과는 다음과 유사합니다.
+-----------------------------------+----------------+----------+-----------------------+ | Row | hour_timestamp | span_name | kind | average_duation_nano | | | TIMESTAMP | STRING | INTEGER | FLOAT | +-----+-----------------------------+-----------+---------------+-----------------------+ | 1 | 2025-10-09 13:00:00.000 EDT | http.receive | 3 | 122138.22813990474 | 2 | 2025-10-09 13:00:00.000 EDT | query.request | 1 | 6740819304.390297 | 3 | 2025-10-09 13:00:00.000 EDT | client.handler | 2 | 6739339098.409376쿼리에 여러 집계가 포함될 수 있습니다. 예를 들어 각 그룹의 항목 수를 계산하는 열을 추가하려면 다음 단계를 따르세요.
- 열 요소에서 열 추가를 클릭합니다.
- 모두 (*)를 선택합니다.
- 대화상자에서 집계를 선택하고 집계에 대해 수를 선택한 다음 적용을 선택합니다.
이 변경사항으로 인해 그룹화는 동일하게 유지됩니다. 항목은 잘린 시작 시간, 스팬 이름, 스팬 종류별로 그룹화됩니다. 하지만 각 그룹에 대해 쿼리는 평균 기간과 항목 수를 계산합니다.
이전 예의 해당 SQL 쿼리는 다음과 같습니다.
WITH
scope_query AS (
SELECT
*
FROM
`PROJECT_ID.global._Trace._AllSpans` )
SELECT
-- Report the truncated start time, span name, span kind, average duration and number
-- of entries for each group.
TIMESTAMP_TRUNC( start_time, HOUR ) AS hour_start_time,
name AS span_name,
kind,
AVG( duration_nano ) AS average_duration_nano,
COUNT( * ) AS count_all
FROM
scope_query
GROUP BY
TIMESTAMP_TRUNC( start_time, HOUR ),
name,
kind
LIMIT
100
스키마 표시
스키마는 필드와 데이터 유형을 포함하여 데이터가 저장되는 방식을 정의합니다. 이 정보는 스키마에 따라 쿼리할 필드와 필드를 다른 데이터 유형으로 변환해야 하는지 여부가 결정되므로 중요합니다. 예를 들어 HTTP 요청의 평균 지연 시간을 계산하는 쿼리를 작성하려면 지연 시간 필드에 액세스하는 방법과 정수(예: 100)로 저장되는지 또는 문자열(예: "100")로 저장되는지 여부를 알아야 합니다. 지연 시간 데이터가 문자열로 저장된 경우 평균을 계산하기 전에 쿼리가 값을 숫자 값으로 형 변환해야 합니다.
스키마를 식별하려면 다음을 수행합니다.
-
Google Cloud 콘솔에서 manage_search 로그 애널리틱스 페이지로 이동합니다.
검색창을 사용하여 이 페이지를 찾은 경우 부제목이 Logging인 결과를 선택합니다.
보기 메뉴에서 보기를 선택합니다.
스키마 창이 업데이트됩니다. 데이터 유형이 JSON인 경우 로그 애널리틱스에서 열의 필드를 자동으로 추론합니다. 추론된 필드가 데이터에 얼마나 자주 표시되는지 확인하려면 more_vert 옵션을 클릭하고 정보 및 설명 보기를 선택합니다.
로그 데이터
로그 뷰의 경우 스키마가 고정되어 있으며
LogEntry에 해당합니다. 분석 뷰의 경우 SQL 쿼리를 수정하여 스키마를 변경할 수 있습니다.Trace 데이터
스키마에 대해 알아보려면 trace 데이터의 스토리지 스키마를 참고하세요.
_Trace.Spans._AllSpans라는 뷰가 표시되지 않으면Google Cloud 프로젝트에_Trace라는 관측 가능성 버킷이 포함되어 있지 않은 것입니다. 이 실패를 해결하는 방법은 추적 스토리지 초기화 실패를 참고하세요.
제한사항
여러 뷰를 쿼리하려면 해당 뷰가 동일한 위치에 있어야 합니다. 예를 들어 us-east1 위치에 뷰 두 개를 저장하는 경우 하나의 쿼리로 두 뷰를 모두 쿼리할 수 있습니다. us 멀티 리전에 저장된 두 개의 뷰를 쿼리할 수도 있습니다. 하지만 뷰의 위치가 global인 경우 해당 뷰는 모든 물리적 위치에 있을 수 있습니다. 따라서 위치가 global인 두 뷰 간의 조인이 실패할 수 있습니다.
로그 데이터에 적용되는 제한사항 목록은 로그 애널리틱스: 제한사항을 참고하세요.