1Password 로그 수집
이 문서에서는 Google Cloud Storage V2를 사용하여 1Password 로그를 Google Security Operations로 수집하는 방법을 설명합니다.
1Password는 팀이 사용자 인증 정보, 보안 비밀, 민감한 정보를 안전하게 저장, 공유, 관리할 수 있도록 지원하는 비밀번호 관리 플랫폼입니다. 1Password Events API를 사용하면 1Password Business 계정의 로그인 시도 및 항목 사용 데이터에 액세스할 수 있습니다.
시작하기 전에
다음 기본 요건이 충족되었는지 확인합니다.
- Google SecOps 인스턴스
- Cloud Storage API가 사용 설정된 GCP 프로젝트
- GCS 버킷을 만들고 관리할 수 있는 권한
- GCS 버킷의 IAM 정책을 관리할 수 있는 권한
- Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
- 1Password Business 계정
- 1Password 계정의 소유자 또는 관리자 역할
Google Cloud Storage 버킷 만들기
- Google Cloud Console로 이동합니다.
- 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
- 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
- 버킷 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 버킷 이름 지정 전역적으로 고유한 이름 (예: onepassword-secops-logs)을 입력합니다.위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전) 위치 위치를 선택합니다 (예: us-central1).스토리지 클래스 Standard (자주 액세스하는 로그에 권장) 액세스 제어 균일 (권장) 보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정 만들기를 클릭합니다.
1Password 사용자 인증 정보 수집
이벤트 보고 통합 설정
- 1Password.com에서 계정에 로그인합니다.
- 사이드바에서 통합을 선택합니다.
- 이전에 다른 통합을 설정한 경우 통합 페이지에서 디렉터리를 선택합니다.
- 이벤트 보고 섹션에서 기타를 선택합니다.
- 이름 필드에 통합 이름을 입력합니다 (예:
Google SecOps Integration). - 통합 추가를 클릭합니다.
Bearer 토큰 만들기
- 통합 세부정보 페이지에서 Bearer 토큰 추가를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 토큰 이름: 설명이 포함된 이름을 입력합니다 (예:
SecOps GCS Collector - SignIn and ItemUsage). - 만료 기간: 원하는 만료 기간을 선택합니다. 만료되지 않는 토큰의 경우 사용 안함을 선택하고, 30일, 90일 또는 180일을 선택합니다.
- 보고할 이벤트: 다음 체크박스를 선택합니다.
- 로그인 시도
- 상품 사용 이벤트
- 토큰 이름: 설명이 포함된 이름을 입력합니다 (예:
- 토큰 발급을 클릭합니다.
토큰 저장 페이지에서 1Password에 저장을 클릭하거나 토큰을 복사하여 안전한 위치에 저장합니다.
통합 세부정보 보기를 클릭하여 통합이 활성 상태인지 확인합니다.
Events API 기준 URL 확인
기본 URL은 1Password 계정을 호스팅하는 서버에 따라 다릅니다.
| 계정이 다음에서 호스팅되는 경우 | Events API 기본 URL은 |
|---|---|
1password.com |
https://events.1password.com |
ent.1password.com |
https://events.ent.1password.com |
1password.ca |
https://events.1password.ca |
1password.eu |
https://events.1password.eu |
API 액세스 테스트
통합을 진행하기 전에 사용자 인증 정보를 테스트하세요.
# Replace with your actual bearer token and base URL BEARER_TOKEN="<your-bearer-token>" API_BASE="https://events.1password.com" # Test API access using the introspect endpoint curl -v \ -H "Authorization: Bearer $BEARER_TOKEN" \ "$API_BASE/api/v2/auth/introspect"
성공적인 응답은 토큰이 액세스할 수 있는 이벤트 유형 (예: ["signinattempts", "itemusages"])을 나열하는 features 필드가 포함된 JSON 객체를 반환합니다.
Cloud Run 함수의 서비스 계정 만들기
Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.
서비스 계정 만들기
- GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
- 서비스 계정 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 서비스 계정 이름:
onepassword-logs-collector-sa을 입력합니다. - 서비스 계정 설명:
Service account for Cloud Run function to collect 1Password logs를 입력합니다.
- 서비스 계정 이름:
- 만들고 계속하기를 클릭합니다.
- 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
- 역할 선택을 클릭합니다.
- 스토리지 객체 관리자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Run 호출자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Functions 호출자를 검색하여 선택합니다.
- 계속을 클릭합니다.
- 완료를 클릭합니다.
이러한 역할은 다음 작업에 필요합니다.
- 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
- Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
- Cloud Functions 호출자: 함수 호출 허용
GCS 버킷에 IAM 권한 부여
GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.
- Cloud Storage> 버킷으로 이동합니다.
- 버킷 (
onepassword-secops-logs)을 클릭합니다. - 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가:
onepassword-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com을 입력합니다. - 역할 할당: 스토리지 객체 관리자를 선택합니다.
- 주 구성원 추가:
- 저장을 클릭합니다.
게시/구독 주제 만들기
Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.
- GCP Console에서 Pub/Sub > 주제로 이동합니다.
- 주제 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주제 ID:
onepassword-logs-trigger를 입력합니다. - 다른 설정은 기본값으로 둡니다.
- 주제 ID:
- 만들기를 클릭합니다.
로그를 수집하는 Cloud Run 함수 만들기
Cloud Run 함수는 Cloud 스케줄러의 Pub/Sub 메시지에 의해 트리거되어 1Password Events API에서 로그인 시도 및 항목 사용 로그를 가져와 GCS에 작성합니다.
- GCP 콘솔에서 Cloud Run으로 이동합니다.
- 서비스 만들기를 클릭합니다.
- 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
구성 섹션에서 다음 구성 세부정보를 제공합니다.
설정 값 서비스 이름 onepassword-logs-collector리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).런타임 Python 3.12 이상 선택 트리거 (선택사항) 섹션에서 다음을 수행합니다.
- + 트리거 추가를 클릭합니다.
- Cloud Pub/Sub를 선택합니다.
- Cloud Pub/Sub 주제 선택에서
onepassword-logs-trigger을 선택합니다. - 저장을 클릭합니다.
인증 섹션에서 다음을 구성합니다.
- 인증 필요를 선택합니다.
- ID 및 액세스 관리 (IAM)를 확인합니다.
아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.
보안 탭으로 이동합니다.
- 서비스 계정:
onepassword-logs-collector-sa선택
- 서비스 계정:
컨테이너 탭으로 이동합니다.
- 변수 및 보안 비밀을 클릭합니다.
각 환경 변수에 대해 + 변수 추가를 클릭합니다.
변수 이름 예제 값 설명 GCS_BUCKETonepassword-secops-logsGCS 버킷 이름 GCS_PREFIXonepassword로그 파일의 접두사 STATE_KEYonepassword/state.json상태 파일 경로 OP_API_BASEhttps://events.1password.com1Password Events API 기준 URL OP_BEARER_TOKEN<your-bearer-token>1Password Events API 베어러 토큰 MAX_RECORDS10000실행당 엔드포인트당 최대 레코드 수 PAGE_SIZE1000페이지당 레코드 수 (최대 1,000개) LOOKBACK_HOURS24초기 회고 기간(단위: 시간)
변수 및 보안 비밀 섹션에서 요청으로 스크롤합니다.
- 요청 제한 시간:
600초 (10분)를 입력합니다.
- 요청 제한 시간:
설정 탭으로 이동합니다.
- 리소스 섹션에서 다음을 수행합니다.
- 메모리: 512MiB 이상 선택
- CPU: 1을 선택합니다.
- 리소스 섹션에서 다음을 수행합니다.
버전 확장 섹션에서 다음을 수행합니다.
- 최소 인스턴스 수:
0를 입력합니다. - 최대 인스턴스 수:
100을 입력합니다 (또는 예상 부하에 따라 조정).
- 최소 인스턴스 수:
만들기를 클릭합니다.
서비스가 생성될 때까지 기다립니다 (1~2분).
서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.
함수 코드 추가
- 진입점 필드에 main을 입력합니다.
인라인 코드 편집기에서 다음 두 파일을 만듭니다.
첫 번째 파일: main.py:
import functions_framework from google.cloud import storage import json import os import urllib3 from datetime import datetime, timezone, timedelta import time # Initialize HTTP client with timeouts http = urllib3.PoolManager( timeout=urllib3.Timeout(connect=5.0, read=30.0), retries=False, ) # Initialize Storage client storage_client = storage.Client() # Environment variables GCS_BUCKET = os.environ.get('GCS_BUCKET') GCS_PREFIX = os.environ.get('GCS_PREFIX', 'onepassword') STATE_KEY = os.environ.get('STATE_KEY', 'onepassword/state.json') API_BASE = os.environ.get('OP_API_BASE') BEARER_TOKEN = os.environ.get('OP_BEARER_TOKEN') MAX_RECORDS = int(os.environ.get('MAX_RECORDS', '10000')) PAGE_SIZE = int(os.environ.get('PAGE_SIZE', '1000')) LOOKBACK_HOURS = int(os.environ.get('LOOKBACK_HOURS', '24')) # 1Password Events API v2 endpoints for sign-in and item usage ENDPOINTS = { 'signinattempts': '/api/v2/signinattempts', 'itemusages': '/api/v2/itemusages', } def parse_datetime(value: str) -> datetime: """Parse RFC 3339 datetime string to datetime object.""" if value.endswith('Z'): value = value[:-1] + '+00:00' return datetime.fromisoformat(value) @functions_framework.cloud_event def main(cloud_event): """ Cloud Run function triggered by Pub/Sub to fetch 1Password sign-in attempt and item usage logs and write them to GCS as NDJSON. """ if not all([GCS_BUCKET, API_BASE, BEARER_TOKEN]): print('Error: Missing required environment variables ' '(GCS_BUCKET, OP_API_BASE, OP_BEARER_TOKEN)') return try: bucket = storage_client.bucket(GCS_BUCKET) # Load state (stores cursors per endpoint) state = load_state(bucket, STATE_KEY) now = datetime.now(timezone.utc) total_records = 0 for event_type, path in ENDPOINTS.items(): print(f'--- Processing endpoint: {event_type} ---') saved_cursor = state.get(f'cursor_{event_type}') records, last_cursor = fetch_endpoint( api_base=API_BASE, path=path, bearer_token=BEARER_TOKEN, saved_cursor=saved_cursor, lookback_hours=LOOKBACK_HOURS, page_size=PAGE_SIZE, max_records=MAX_RECORDS, ) if records: timestamp = now.strftime('%Y%m%d_%H%M%S') object_key = (f'{GCS_PREFIX}/' f'{event_type}_{timestamp}.ndjson') blob = bucket.blob(object_key) ndjson = '\n'.join( json.dumps(r, ensure_ascii=False) for r in records ) + '\n' blob.upload_from_string( ndjson, content_type='application/x-ndjson' ) print(f'Wrote {len(records)} {event_type} records ' f'to gs://{GCS_BUCKET}/{object_key}') # Save cursor even if no records (for next poll) if last_cursor: state[f'cursor_{event_type}'] = last_cursor total_records += len(records) # Save state with all cursors state['last_run'] = now.isoformat() save_state(bucket, STATE_KEY, state) print(f'Successfully processed {total_records} total records') except Exception as e: print(f'Error processing logs: {str(e)}') raise def load_state(bucket, key): """Load state from GCS.""" try: blob = bucket.blob(key) if blob.exists(): state_data = blob.download_as_text() return json.loads(state_data) except Exception as e: print(f'Warning: Could not load state: {e}') return {} def save_state(bucket, key, state: dict): """Save state to GCS.""" try: blob = bucket.blob(key) blob.upload_from_string( json.dumps(state, indent=2), content_type='application/json', ) print(f'Saved state: {json.dumps(state)}') except Exception as e: print(f'Warning: Could not save state: {e}') def fetch_endpoint(api_base, path, bearer_token, saved_cursor, lookback_hours, page_size, max_records): """ Fetch events from a single 1Password Events API v2 endpoint. The 1Password Events API uses cursor-based pagination with POST requests. The first request sends a ResetCursor object with optional start_time and limit. Subsequent requests send the cursor returned from the previous response. Args: api_base: Events API base URL path: Endpoint path bearer_token: JWT bearer token saved_cursor: Cursor from previous run (or None) lookback_hours: Hours to look back on first run page_size: Max events per page (1-1000) max_records: Max total events per run Returns: Tuple of (records list, last_cursor string) """ url = f'{api_base.rstrip("/")}{path}' headers = { 'Authorization': f'Bearer {bearer_token}', 'Content-Type': 'application/json', 'Accept': 'application/json', 'User-Agent': 'GoogleSecOps-1PasswordCollector/1.0', } records = [] cursor = saved_cursor page_num = 0 backoff = 1.0 while True: page_num += 1 if len(records) >= max_records: print(f'Reached max_records limit ({max_records})') break # Build request body if cursor: # Continuing cursor: resume from last position body = json.dumps({'cursor': cursor}) else: # ResetCursor: first request or no saved state start_time = ( datetime.now(timezone.utc) - timedelta(hours=lookback_hours) ) body = json.dumps({ 'limit': page_size, 'start_time': start_time.strftime( '%Y-%m-%dT%H:%M:%SZ' ), }) try: response = http.request( 'POST', url, body=body, headers=headers, ) # Handle rate limiting (600 req/min, 30000 req/hour) if response.status == 429: retry_after = int( response.headers.get( 'Retry-After', str(int(backoff)) ) ) print(f'Rate limited (429). Retrying after ' f'{retry_after}s...') time.sleep(retry_after) backoff = min(backoff * 2, 60.0) continue backoff = 1.0 if response.status != 200: response_text = response.data.decode('utf-8') print(f'HTTP Error {response.status}: ' f'{response_text}') break data = json.loads(response.data.decode('utf-8')) page_items = data.get('items', []) cursor = data.get('cursor') has_more = data.get('has_more', False) if page_items: print(f'Page {page_num}: Retrieved ' f'{len(page_items)} events') records.extend(page_items) if not has_more: print(f'No more pages (has_more=false)') break if not cursor: print(f'No cursor returned, stopping') break except urllib3.exceptions.HTTPError as e: print(f'HTTP error: {str(e)}') break except Exception as e: print(f'Error fetching events: {str(e)}') break print(f'Retrieved {len(records)} total records ' f'from {page_num} pages') return records, cursor두 번째 파일: requirements.txt:
functions-framework==3.* google-cloud-storage==2.* urllib3>=2.0.0
배포를 클릭하여 함수를 저장하고 배포합니다.
배포가 완료될 때까지 기다립니다 (2~3분).
Cloud Scheduler 작업 만들기
Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.
- GCP Console에서 Cloud Scheduler로 이동합니다.
- 작업 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 이름 onepassword-logs-collector-hourly리전 Cloud Run 함수와 동일한 리전 선택 주파수 0 * * * *(매시간 정각)시간대 시간대 선택 (UTC 권장) 타겟 유형 Pub/Sub 주제 onepassword-logs-trigger선택메일 본문 {}(빈 JSON 객체)만들기를 클릭합니다.
일정 빈도 옵션
로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.
| 빈도 | 크론 표현식 | 사용 사례 |
|---|---|---|
| 5분마다 | */5 * * * * |
대용량, 저지연 |
| 15분마다 | */15 * * * * |
검색량 보통 |
| 1시간마다 | 0 * * * * |
표준 (권장) |
| 6시간마다 | 0 */6 * * * |
양이 적은 일괄 처리 |
| 매일 | 0 0 * * * |
이전 데이터 수집 |
통합 테스트
- Cloud Scheduler 콘솔에서
onepassword-logs-collector-hourly를 찾습니다. - 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
- 몇 초 동안 기다립니다.
- Cloud Run > 서비스로 이동합니다.
onepassword-logs-collector을 클릭합니다.- 로그 탭을 클릭합니다.
함수가 성공적으로 실행되었는지 확인합니다. 다음 항목을 찾습니다.
--- Processing endpoint: signinattempts --- Page 1: Retrieved X events Wrote X signinattempts records to gs://onepassword-secops-logs/onepassword/signinattempts_YYYYMMDD_HHMMSS.ndjson --- Processing endpoint: itemusages --- Page 1: Retrieved X events Wrote X itemusages records to gs://onepassword-secops-logs/onepassword/itemusages_YYYYMMDD_HHMMSS.ndjson Successfully processed X total recordsCloud Storage> 버킷으로 이동합니다.
onepassword-secops-logs을 클릭합니다.onepassword/폴더로 이동합니다.새
.ndjson파일이 현재 타임스탬프로 생성되었는지 확인합니다.
로그에 오류가 표시되면 다음 단계를 따르세요.
- HTTP 401:
OP_BEARER_TOKEN환경 변수의 베어러 토큰을 확인합니다. 토큰이 만료되었을 수 있습니다. - HTTP 429: 비율 제한입니다. 이 함수는 백오프로 자동으로 재시도합니다. 1Password Events API는 분당 600개 요청과 시간당 30,000개 요청을 허용합니다.
- 환경 변수 누락: Cloud Run Functions 구성에 필요한 모든 변수가 설정되어 있는지 확인합니다.
- 반환된 레코드가 없음: 인트로스펙트 엔드포인트를 사용하여 요청된 이벤트 유형에 대한 액세스 권한이 베어러 토큰에 있는지 확인합니다.
Google SecOps 서비스 계정 가져오기
Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.
서비스 계정 이메일 가져오기
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에 피드 이름을 입력합니다(예:
1Password Sign-In and Item Usage Logs). - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 1Password를 선택합니다.
서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.
chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.
다음을 클릭합니다.
다음 입력 매개변수의 값을 지정합니다.
스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.
gs://onepassword-secops-logs/onepassword/
소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.
- 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
- 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.
최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다 (기본값은 180일).
애셋 네임스페이스: 애셋 네임스페이스
수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.
다음을 클릭합니다.
확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.
Google SecOps 서비스 계정에 IAM 권한 부여
Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.
- Cloud Storage> 버킷으로 이동합니다.
onepassword-secops-logs을 클릭합니다.- 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
- 역할 할당: 스토리지 객체 뷰어 선택
저장을 클릭합니다.
UDM 매핑 테이블
| 로그 필드 | UDM 매핑 | 논리 |
|---|---|---|
| 카테고리 | security_result.category_details | 값은 원시 로그의 category 필드에서 가져옵니다. |
| client.app_name | principal.application | 값은 원시 로그의 client.app_name 필드에서 가져옵니다. |
| client.app_version | metadata.product_version | 값은 원시 로그의 client.app_version 필드에서 가져옵니다. |
| client.ip_address | principal.ip | 값은 원시 로그의 client.ip_address 필드에서 가져옵니다. |
| client.os_name | principal.platform | 이 값은 원시 로그의 client.os_name 필드에서 가져와 해당 UDM 플랫폼 값 (LINUX, WINDOWS, MAC)에 매핑됩니다. |
| client.os_version | principal.platform_version | 값은 원시 로그의 client.os_version 필드에서 가져옵니다. |
| client.platform_name | principal.resource.attribute.labels | 값은 원시 로그의 client.platform_name 필드에서 가져옵니다. |
| client.platform_version | principal.asset.platform_software.platform_version | 값은 원시 로그의 client.platform_version 필드에서 가져옵니다. |
| 국가 | principal.location.country_or_region | location.country이 없는 경우 값은 원시 로그의 country 필드에서 가져옵니다. |
| item_uuid | security_result.about.resource.attribute.labels | 값은 원시 로그의 item_uuid 필드에서 가져옵니다. |
| location.city | principal.location.city | 값은 원시 로그의 location.city 필드에서 가져옵니다. |
| location.country | principal.location.country_or_region | 값은 원시 로그의 location.country 필드에서 가져옵니다. |
| location.latitude | principal.location.region_latitude | 값은 원시 로그의 location.latitude 필드에서 가져옵니다. |
| location.longitude | principal.location.region_longitude | 값은 원시 로그의 location.longitude 필드에서 가져옵니다. |
| location.region | principal.location.name | 값은 원시 로그의 location.region 필드에서 가져옵니다. |
| session.ip | principal.ip | 값은 원시 로그의 session.ip 필드에서 가져옵니다. |
| session_uuid | network.session_id | 값은 원시 로그의 session_uuid 필드에서 가져옵니다. |
| target_user.email | target.user.email_addresses | 값은 원시 로그의 target_user.email 필드에서 가져옵니다. |
| target_user.uuid | target.user.userid | 값은 원시 로그의 target_user.uuid 필드에서 가져옵니다. |
| 타임스탬프 | metadata.event_timestamp | 값은 원시 로그의 timestamp 필드에서 가져와 초 및 나노초로 변환됩니다. |
| 유형 | additional.fields | 값은 원시 로그의 type 필드에서 가져옵니다. |
| user.email | principal.user.email_addresses | 값은 원시 로그의 user.email 필드에서 가져옵니다. |
| user.name | principal.user.user_display_name | 값은 원시 로그의 user.name 필드에서 가져옵니다. |
| used_version | additional.fields | 값은 원시 로그의 used_version 필드에서 가져옵니다. |
| uuid | principal.resource.attribute.labels | 값은 원시 로그의 uuid 필드에서 가져옵니다. |
| vault_uuid | security_result.about.resource.attribute.labels | 값은 원시 로그의 vault_uuid 필드에서 가져옵니다. |
| 해당 사항 없음 | extensions.auth | 이 필드에 빈 객체가 생성됩니다. |
| 해당 사항 없음 | metadata.event_type | 카테고리가 success 또는 firewall_reported_success인 경우 USER_LOGIN, 사용자 정보가 없는 경우 STATUS_UPDATE, 그 외의 경우 USER_UNCATEGORIZED로 설정합니다. |
| 해당 사항 없음 | metadata.log_type | ONEPASSWORD로 설정합니다. |
| 해당 사항 없음 | metadata.product_name | ONEPASSWORD로 설정합니다. |
| 해당 사항 없음 | metadata.vendor_name | ONEPASSWORD로 설정합니다. |
| 해당 사항 없음 | security_result.action | 카테고리가 success 또는 firewall_reported_success인 경우 ALLOW로 설정하고, 카테고리가 credentials_failed, mfa_failed, modern_version_failed 또는 firewall_failed인 경우 BLOCK로 설정하며, 그 외의 경우에는 비워 둡니다. |
도움이 더 필요하신가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.