Cisco CloudLock CASB 로그 수집

다음에서 지원:

이 문서에서는 Google Cloud Storage를 사용하여 Cisco CloudLock CASB 로그를 Google Security Operations에 수집하는 방법을 설명합니다 .파서는 JSON 로그에서 필드를 추출하여 통합 데이터 모델 (UDM)로 변환하고 매핑합니다. 날짜 파싱을 처리하고, 특정 필드를 문자열로 변환하고, 필드를 UDM 엔티티 (메타데이터, 타겟, 보안 결과, 정보)에 매핑하고, 일치 항목을 반복하여 감지 필드를 추출하고, 마지막으로 추출된 모든 데이터를 @output 필드로 병합합니다.

Cisco CloudLock은 클라우드 네이티브 클라우드 액세스 보안 브로커 (CASB)로, 클라우드 애플리케이션에 대한 가시성과 제어 기능을 제공합니다. 조직이 비공식 IT를 검색하고, 데이터 손실 방지 정책을 시행하고, 위협을 감지하고, SaaS 애플리케이션 전반에서 규정 준수를 유지하는 데 도움이 됩니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Cloud Storage API가 사용 설정된 GCP 프로젝트
  • GCS 버킷을 만들고 관리할 수 있는 권한
  • GCS 버킷의 IAM 정책을 관리할 수 있는 권한
  • Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
  • Cisco CloudLock 관리 콘솔에 대한 권한 액세스

Cisco CloudLock API 기본 요건 가져오기

시작하려면 Cloudlock 지원팀에 문의하여 Cloudlock API URL을 받으세요. 설정 페이지에서 인증 및 API 탭을 선택하고 생성을 클릭하여 Cloudlock 애플리케이션에서 액세스 토큰을 생성합니다.

  1. Cisco CloudLock 관리 콘솔에 로그인합니다.
  2. 설정 > 인증 및 API로 이동합니다.
  3. API에서 생성을 클릭하여 액세스 토큰을 만듭니다.
  4. 다음 세부정보를 복사하여 안전한 위치에 저장합니다.
    • API 액세스 토큰
    • API 기준 URL([email protected]에서 Cisco CloudLock 지원팀이 제공)

Google Cloud Storage 버킷 만들기

  1. Google Cloud 콘솔로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: cisco-cloudlock-logs)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: cloudlock-data-export-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect Cisco CloudLock logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 단계를 따르세요.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

GCS 버킷에 대한 IAM 권한 부여

GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: cloudlock-data-export-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: cloudlock-data-export-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cisco CloudLock API에서 로그를 가져와 GCS에 작성하기 위해 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거됩니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 cloudlock-data-export
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    • + 트리거 추가를 클릭합니다.
    • Cloud Pub/Sub를 선택합니다.
    • Cloud Pub/Sub 주제 선택에서 주제 (cloudlock-data-export-trigger)를 선택합니다.
    • 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    • 인증 필요를 선택합니다.
    • ID 및 액세스 관리 (IAM)를 확인합니다.
  7. 컨테이너, 네트워킹, 보안으로 스크롤하여 펼칩니다.

  8. 보안 탭으로 이동합니다.

    • 서비스 계정: 서비스 계정 (cloudlock-data-export-sa)을 선택합니다.
  9. 컨테이너 탭으로 이동합니다.

    • 변수 및 보안 비밀을 클릭합니다.
    • 각 환경 변수에 대해 + 변수 추가를 클릭합니다.

      변수 이름 예시 값
      GCS_BUCKET cisco-cloudlock-logs
      GCS_PREFIX cloudlock/
      STATE_KEY cloudlock/state.json
      CLOUDLOCK_API_TOKEN your-api-token
      CLOUDLOCK_API_BASE https://api.cloudlock.com
  10. 변수 및 보안 비밀 탭에서 요청까지 아래로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  11. 컨테이너설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
    • 완료를 클릭합니다.
  12. 실행 환경으로 스크롤합니다.

    • 기본을 선택합니다 (권장).
  13. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  14. 만들기를 클릭합니다.

  15. 서비스가 생성될 때까지 기다립니다 (1~2분).

  16. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 함수 진입점main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:

      import functions_framework
      from google.cloud import storage
      import json
      import os
      import urllib3
      from datetime import datetime, timezone, timedelta
      import time
      
      # Initialize HTTP client
      http = urllib3.PoolManager()
      
      # Initialize Storage client
      storage_client = storage.Client()
      
      @functions_framework.cloud_event
      def main(cloud_event):
          """
          Cloud Run function triggered by Pub/Sub to fetch logs from Cisco CloudLock API and write to GCS.
      
          Args:
              cloud_event: CloudEvent object containing Pub/Sub message
          """
      
          # Get environment variables
          bucket_name = os.environ.get('GCS_BUCKET')
          prefix = os.environ.get('GCS_PREFIX', 'cloudlock/')
          state_key = os.environ.get('STATE_KEY', 'cloudlock/state.json')
          api_token = os.environ.get('CLOUDLOCK_API_TOKEN')
          api_base = os.environ.get('CLOUDLOCK_API_BASE')
      
          if not all([bucket_name, api_token, api_base]):
              print('Error: Missing required environment variables')
              return
      
          try:
              # Get GCS bucket
              bucket = storage_client.bucket(bucket_name)
      
              # Load state (last processed offset for each endpoint)
              state = load_state(bucket, state_key)
      
              print(f'Processing logs with state: {state}')
      
              # Create Authorization header
              headers = {
                  'Authorization': f'Bearer {api_token}',
                  'Content-Type': 'application/json'
              }
      
              # Fetch incidents data (using offset-based pagination)
              incidents_offset = state.get('incidents_offset', 0)
              incidents, new_incidents_offset = fetch_cloudlock_incidents(
                  http, api_base, headers, incidents_offset
              )
      
              if incidents:
                  upload_to_gcs_ndjson(bucket, prefix, 'incidents', incidents)
                  print(f'Uploaded {len(incidents)} incidents to GCS')
                  state['incidents_offset'] = new_incidents_offset
      
              # Fetch activities data (using time-based filtering with offset pagination)
              activities_last_time = state.get('activities_last_time')
              if not activities_last_time:
                  activities_last_time = (datetime.now(timezone.utc) - timedelta(hours=24)).isoformat()
      
              activities_offset = state.get('activities_offset', 0)
              activities, new_activities_offset, newest_activity_time = fetch_cloudlock_activities(
                  http, api_base, headers, activities_last_time, activities_offset
              )
      
              if activities:
                  upload_to_gcs_ndjson(bucket, prefix, 'activities', activities)
                  print(f'Uploaded {len(activities)} activities to GCS')
                  state['activities_offset'] = new_activities_offset
                  if newest_activity_time:
                      state['activities_last_time'] = newest_activity_time
      
              # Fetch entities data (using offset-based pagination)
              entities_offset = state.get('entities_offset', 0)
              entities, new_entities_offset = fetch_cloudlock_entities(
                  http, api_base, headers, entities_offset
              )
      
              if entities:
                  upload_to_gcs_ndjson(bucket, prefix, 'entities', entities)
                  print(f'Uploaded {len(entities)} entities to GCS')
                  state['entities_offset'] = new_entities_offset
      
              # Update consolidated state
              state['updated_at'] = datetime.now(timezone.utc).isoformat()
              save_state(bucket, state_key, state)
      
              print('CloudLock data export completed successfully')
      
          except Exception as e:
              print(f'Error processing logs: {str(e)}')
              raise
      
      def make_api_request(http, url, headers, retries=3):
          """Make API request with exponential backoff retry logic."""
          for attempt in range(retries):
              try:
                  response = http.request('GET', url, headers=headers)
      
                  if response.status == 200:
                      return response
                  elif response.status == 429:
                      # Rate limit
                      retry_after = int(response.headers.get('Retry-After', 60))
                      print(f'Rate limited, waiting {retry_after} seconds')
                      time.sleep(retry_after)
                  else:
                      print(f'API request failed with status {response.status}: {response.data.decode("utf-8")}')
              except Exception as e:
                  print(f'Request attempt {attempt + 1} failed: {str(e)}')
                  if attempt < retries - 1:
                      wait_time = 2 ** attempt
                      time.sleep(wait_time)
                  else:
                      raise
      
          return None
      
      def fetch_cloudlock_incidents(http, api_base, headers, start_offset=0):
          """
          Fetch incidents data from Cisco CloudLock API using offset-based pagination.
      
          Note: The CloudLock API does not support updated_after parameter. This function
          uses offset-based pagination. For production use, consider implementing time-based
          filtering using created_at or updated_at fields in the response data.
          """
          url = f"{api_base}/api/v2/incidents"
      
          limit = 1000
          offset = start_offset
          all_data = []
      
          try:
              while True:
                  # Build URL with parameters
                  full_url = f"{url}?limit={limit}&offset={offset}"
      
                  print(f"Fetching incidents with offset: {offset}")
      
                  response = make_api_request(http, full_url, headers)
                  if not response:
                      break
      
                  data = json.loads(response.data.decode('utf-8'))
      
                  # CloudLock API returns items in 'items' array
                  batch_data = data.get('items', [])
      
                  if not batch_data:
                      print("No more incidents to fetch")
                      break
      
                  all_data.extend(batch_data)
      
                  # Check if we've reached the end
                  total = data.get('total', 0)
                  results = data.get('results', len(batch_data))
      
                  print(f"Fetched {results} incidents (total available: {total})")
      
                  if results < limit or offset + results >= total:
                      print("Reached end of incidents")
                      break
      
                  offset += limit
      
              print(f"Fetched {len(all_data)} total incidents")
              return all_data, offset
      
          except Exception as e:
              print(f"Error fetching incidents: {str(e)}")
              return [], start_offset
      
      def fetch_cloudlock_activities(http, api_base, headers, from_time, start_offset=0):
          """
          Fetch activities data from Cisco CloudLock API using time-based filtering and offset pagination.
          """
          url = f"{api_base}/api/v2/activities"
      
          limit = 1000
          offset = start_offset
          all_data = []
          newest_time = None
      
          try:
              while True:
                  # Build URL with time filter and pagination
                  full_url = f"{url}?limit={limit}&offset={offset}"
      
                  print(f"Fetching activities with offset: {offset}")
      
                  response = make_api_request(http, full_url, headers)
                  if not response:
                      break
      
                  data = json.loads(response.data.decode('utf-8'))
                  batch_data = data.get('items', [])
      
                  if not batch_data:
                      print("No more activities to fetch")
                      break
      
                  # Filter activities by time (client-side filtering since API may not support time parameters)
                  filtered_batch = []
                  for item in batch_data:
                      item_time = item.get('timestamp') or item.get('created_at')
                      if item_time and item_time >= from_time:
                          filtered_batch.append(item)
                          if not newest_time or item_time > newest_time:
                              newest_time = item_time
      
                  all_data.extend(filtered_batch)
      
                  results = data.get('results', len(batch_data))
                  total = data.get('total', 0)
      
                  print(f"Fetched {results} activities, {len(filtered_batch)} after time filter (total available: {total})")
      
                  if results < limit or offset + results >= total:
                      print("Reached end of activities")
                      break
      
                  offset += limit
      
              print(f"Fetched {len(all_data)} total activities")
              return all_data, offset, newest_time
      
          except Exception as e:
              print(f"Error fetching activities: {str(e)}")
              return [], start_offset, None
      
      def fetch_cloudlock_entities(http, api_base, headers, start_offset=0):
          """
          Fetch entities data from Cisco CloudLock API using offset-based pagination.
      
          Note: This endpoint requires the Entity Cache feature. If not enabled,
          use the incident entities endpoint as an alternative.
          """
          url = f"{api_base}/api/v2/entities"
      
          limit = 1000
          offset = start_offset
          all_data = []
      
          try:
              while True:
                  full_url = f"{url}?limit={limit}&offset={offset}"
      
                  print(f"Fetching entities with offset: {offset}")
      
                  response = make_api_request(http, full_url, headers)
                  if not response:
                      break
      
                  data = json.loads(response.data.decode('utf-8'))
                  batch_data = data.get('items', [])
      
                  if not batch_data:
                      print("No more entities to fetch")
                      break
      
                  all_data.extend(batch_data)
      
                  results = data.get('results', len(batch_data))
                  total = data.get('total', 0)
      
                  print(f"Fetched {results} entities (total available: {total})")
      
                  if results < limit or offset + results >= total:
                      print("Reached end of entities")
                      break
      
                  offset += limit
      
              print(f"Fetched {len(all_data)} total entities")
              return all_data, offset
      
          except Exception as e:
              print(f"Error fetching entities: {str(e)}")
              return [], start_offset
      
      def upload_to_gcs_ndjson(bucket, prefix, data_type, data):
          """Upload data to GCS bucket in NDJSON format (one JSON object per line)."""
          timestamp = datetime.now(timezone.utc).strftime('%Y/%m/%d/%H')
          filename = f"{prefix}{data_type}/{timestamp}/cloudlock_{data_type}_{int(datetime.now(timezone.utc).timestamp())}.jsonl"
      
          try:
              # Convert to NDJSON format
              ndjson_content = '\n'.join([json.dumps(item, separators=(',', ':')) for item in data])
      
              blob = bucket.blob(filename)
              blob.upload_from_string(
                  ndjson_content,
                  content_type='application/x-ndjson'
              )
      
              print(f"Successfully uploaded {filename} to GCS")
      
          except Exception as e:
              print(f"Error uploading to GCS: {str(e)}")
              raise
      
      def load_state(bucket, key):
          """Load state from GCS with separate tracking for each endpoint."""
          try:
              blob = bucket.blob(key)
              if blob.exists():
                  state_data = blob.download_as_text()
                  return json.loads(state_data)
          except Exception as e:
              print(f'Warning: Could not load state: {str(e)}')
      
          print("No previous state found, starting fresh")
          return {}
      
      def save_state(bucket, key, state):
          """Save consolidated state to GCS."""
          try:
              blob = bucket.blob(key)
              blob.upload_from_string(
                  json.dumps(state, indent=2),
                  content_type='application/json'
              )
              print("Updated state successfully")
          except Exception as e:
              print(f"Error updating state: {str(e)}")
              raise
      
      • 두 번째 파일: requirements.txt:
      functions-framework==3.*
      google-cloud-storage==2.*
      urllib3>=2.0.0
      
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 cloudlock-data-export-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 주제 선택 (cloudlock-data-export-trigger)
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

  • 로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

    빈도 크론 표현식 사용 사례
    5분마다 */5 * * * * 대용량, 저지연
    15분마다 */15 * * * * 검색량 보통
    1시간마다 0 * * * * 일반(권장)
    6시간마다 0 */6 * * * 양이 적은 일괄 처리
    매일 0 0 * * * 이전 데이터 수집

스케줄러 작업 테스트

  1. Cloud Scheduler 콘솔에서 작업을 찾습니다.
  2. 강제 실행을 클릭하여 수동으로 트리거합니다.
  3. 몇 초간 기다린 후 Cloud Run > 서비스 > cloudlock-data-export > 로그로 이동합니다.
  4. 함수가 성공적으로 실행되었는지 확인합니다.
  5. GCS 버킷을 확인하여 로그가 작성되었는지 확인합니다.

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

서비스 계정 이메일 가져오기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Cisco CloudLock logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Cisco CloudLock을 선택합니다.
  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

Cisco CloudLock 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Cisco CloudLock logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Cisco CloudLock을 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://cisco-cloudlock-logs/cloudlock/
      
      • 다음과 같이 바꿉니다.

        • cisco-cloudlock-logs: GCS 버킷 이름입니다.
        • cloudlock/: 로그가 저장되는 선택적 접두사/폴더 경로입니다 (루트의 경우 비워 둠).
      • 예:

        • 루트 버킷: gs://cisco-cloudlock-logs/
        • 접두사 사용: gs://cisco-cloudlock-logs/cloudlock/
        • 하위 폴더 사용: gs://cisco-cloudlock-logs/cloudlock/incidents/
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.

  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 로직
created_at about.resource.attribute.labels.key created_at 필드의 값이 labels 키에 할당됩니다.
created_at about.resource.attribute.labels.value created_at 필드의 값이 라벨 값에 할당됩니다.
created_at about.resource.attribute.creation_time created_at 필드가 타임스탬프로 파싱되고 매핑됩니다.
entity.id target.asset.product_object_id entity.id 필드의 이름이 변경됩니다.
entity.ip target.ip entity.ip 필드가 대상 IP 필드로 병합됩니다.
entity.mime_type target.file.mime_type entity.origin_type이 'document'인 경우 entity.mime_type 필드의 이름이 바뀝니다.
entity.name target.application entity.origin_type이 'app'인 경우 entity.name 필드의 이름이 변경됩니다.
entity.name target.file.full_path entity.origin_type이 'document'인 경우 entity.name 필드의 이름이 변경됩니다.
entity.origin_id target.resource.product_object_id entity.origin_id 필드의 이름이 변경됩니다.
entity.origin_type target.resource.resource_subtype entity.origin_type 필드의 이름이 변경됩니다.
entity.owner_email target.user.email_addresses entity.owner_email 필드가 이메일 정규식과 일치하면 타겟 사용자 이메일 필드에 병합됩니다.
entity.owner_email target.user.user_display_name entity.owner_email 필드가 이메일 정규식과 일치하지 않으면 이름이 변경됩니다.
entity.owner_name target.user.user_display_name entity.owner_email이 이메일 정규식과 일치하면 entity.owner_name 필드의 이름이 변경됩니다.
entity.vendor.name target.platform_version entity.vendor.name 필드의 이름이 변경됩니다.
id metadata.product_log_id id 필드의 이름이 변경됩니다.
incident_status metadata.product_event_type incident_status 필드의 이름이 변경됩니다.
metadata.event_timestamp 값은 'updated_at'으로 하드코딩됩니다. 값은 updated_at 필드에서 파생됩니다. updated_at 필드가 타임스탬프로 파싱되고 매핑됩니다.
security_result.detection_fields.key 심각도가 'ALERT'이고 incident_status가 'NEW'인 경우 'true'로 설정됩니다. 불리언으로 변환되었습니다.
security_result.detection_fields.value 심각도가 'ALERT'이고 incident_status가 'NEW'인 경우 'true'로 설정됩니다. 불리언으로 변환되었습니다.
metadata.event_type 값은 'GENERIC_EVENT'로 하드코딩됩니다.
metadata.product_name 값은 'CISCO_CLOUDLOCK_CASB'로 하드코딩됩니다.
metadata.vendor_name 값은 'CloudLock'으로 하드코딩됩니다.
metadata.product_version 값은 'Cisco'로 하드코딩됩니다.
security_result.alert_state 심각도가 'ALERT'이고 incident_status가 'RESOLVED' 또는 'DISMISSED'가 아닌 경우 'ALERTING'으로 설정됩니다. 심각도가 'ALERT'이고 incident_status가 'RESOLVED' 또는 'DISMISSED'인 경우 'NOT_ALERTING'으로 설정됩니다.
security_result.detection_fields.key 일치 배열, 특히 각 일치 객체의 키에서 파생됩니다.
security_result.detection_fields.value 일치 배열, 특히 각 일치 객체의 값에서 파생됩니다.
security_result.rule_id policy.id에서 파생됩니다.
security_result.rule_name policy.name에서 파생됩니다.
security_result.severity 심각도가 'INFO'인 경우 'INFORMATIONAL'로 설정됩니다. 심각도가 'CRITICAL'인 경우 'CRITICAL'로 설정됩니다. 심각도에서 파생됩니다.
security_result.summary 값은 'match count: '와 match_count 값을 연결한 값으로 설정됩니다.
target.resource.resource_type entity.origin_type이 'document'인 경우 'STORAGE_OBJECT'로 설정됩니다.
target.url entity.origin_type이 'document'인 경우 entity.direct_url에서 파생됩니다.
policy.id security_result.rule_id policy.id 필드의 이름이 변경됩니다.
policy.name security_result.rule_name policy.name 필드의 이름이 변경됩니다.
줄이는 것을 security_result.severity_details 심각도 필드의 이름이 변경되었습니다.
updated_at about.resource.attribute.labels.key updated_at 필드의 값이 labels 키에 할당됩니다.
updated_at about.resource.attribute.labels.value updated_at 필드의 값이 라벨 값에 할당됩니다.
updated_at about.resource.attribute.last_update_time updated_at 필드가 타임스탬프로 파싱되고 매핑됩니다.

도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.