Cisco AMP for Endpoints 로그 수집

다음에서 지원:

이 문서에서는 Google Cloud Storage를 사용하여 Cisco AMP for Endpoints 로그를 Google Security Operations로 수집하는 방법을 설명합니다. 파서는 원시 JSON 형식 로그를 Chronicle UDM을 준수하는 구조화된 형식으로 변환합니다. 중첩된 JSON 객체에서 필드를 추출하고, UDM 스키마에 매핑하고, 이벤트 카테고리를 식별하고, 심각도 수준을 할당하고, 궁극적으로 통합된 이벤트 출력을 생성하여 특정 조건이 충족되면 보안 알림을 표시합니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Cloud Storage API가 사용 설정된 GCP 프로젝트
  • GCS 버킷을 만들고 관리할 수 있는 권한
  • GCS 버킷의 IAM 정책을 관리할 수 있는 권한
  • Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
  • Cisco AMP for Endpoints 콘솔에 대한 권한 있는 액세스

Cisco AMP for Endpoints API 사용자 인증 정보 수집

  1. Cisco AMP for Endpoints 콘솔에 로그인합니다.
  2. 계정 > API 사용자 인증 정보로 이동합니다.
  3. 새 API 사용자 인증 정보를 클릭하여 새 API 키와 클라이언트 ID를 만듭니다.
  4. 다음 구성 세부정보를 제공합니다.
    • 애플리케이션 이름: 이름을 입력합니다 (예: Chronicle SecOps Integration).
    • 범위: 기본 이벤트 폴링의 경우 읽기 전용을 선택합니다.
  5. 만들기를 클릭합니다.
  6. 다음 세부정보를 복사하여 안전한 위치에 저장합니다.
    • 3API 클라이언트 ID
    • API 키
    • API 기본 URL: 지역에 따라 다음을 사용합니다.
      • 미국: https://api.amp.cisco.com
      • EU: https://api.eu.amp.cisco.com
      • APJC: https://api.apjc.amp.cisco.com

권한 확인

계정에 필요한 권한이 있는지 확인하려면 다음 단계를 따르세요.

  1. Cisco AMP for Endpoints 콘솔에 로그인합니다.
  2. 계정 > API 사용자 인증 정보로 이동합니다.
  3. API 사용자 인증 정보 페이지가 표시되고 새로 만든 사용자 인증 정보가 나열되면 필요한 권한이 있는 것입니다.
  4. 이 옵션이 표시되지 않으면 관리자에게 문의하여 API 액세스 권한을 부여받으세요.

API 액세스 테스트

  • 통합을 진행하기 전에 사용자 인증 정보를 테스트하세요.

    # Replace with your actual credentials
    AMP_CLIENT_ID="your-client-id"
    AMP_API_KEY="your-api-key"
    API_BASE="https://api.amp.cisco.com"
    
    # Test API access
    curl -v -u "${AMP_CLIENT_ID}:${AMP_API_KEY}" "${API_BASE}/v1/events?limit=1"
    

Google Cloud Storage 버킷 만들기

  1. Google Cloud 콘솔로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: cisco-amp-logs)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: cisco-amp-collector-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect Cisco AMP for Endpoints logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

이러한 역할은 다음 작업에 필요합니다.

  • 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
  • Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
  • Cloud Functions 호출자: 함수 호출 허용

GCS 버킷에 대한 IAM 권한 부여

서비스 계정 (cisco-amp-collector-sa)에 GCS 버킷에 대한 쓰기 권한을 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: cisco-amp-collector-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: cisco-amp-events-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Cisco AMP for Endpoints API에서 로그를 가져와 GCS에 작성합니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 cisco-amp-events-collector
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    1. + 트리거 추가를 클릭합니다.
    2. Cloud Pub/Sub를 선택합니다.
    3. Cloud Pub/Sub 주제 선택에서 Pub/Sub 주제 (cisco-amp-events-trigger)를 선택합니다.
    4. 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    • 인증 필요를 선택합니다.
    • Identity and Access Management (IAM)를 선택합니다.
  1. 컨테이너, 네트워킹, 보안으로 스크롤하여 펼칩니다.
  2. 보안 탭으로 이동합니다.
    • 서비스 계정: 서비스 계정 (cisco-amp-collector-sa)을 선택합니다.
  3. 컨테이너 탭으로 이동합니다.

    • 변수 및 보안 비밀을 클릭합니다.
    • 각 환경 변수에 대해 + 변수 추가를 클릭합니다.

      변수 이름 예시 값 설명
      GCS_BUCKET cisco-amp-logs GCS 버킷 이름
      GCS_PREFIX cisco-amp-events/ 로그 파일의 접두사
      STATE_KEY cisco-amp-events/state.json 상태 파일 경로
      API_BASE https://api.amp.cisco.com API 기본 URL
      AMP_CLIENT_ID your-client-id API 클라이언트 ID
      AMP_API_KEY your-api-key API 키
      PAGE_SIZE 500 페이지당 레코드 수
      MAX_PAGES 10 가져올 최대 페이지 수
  4. 변수 및 보안 비밀 섹션에서 요청으로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  5. 설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
  6. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  7. 만들기를 클릭합니다.

  8. 서비스가 생성될 때까지 기다립니다 (1~2분).

  9. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 진입점 필드에 main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    import base64
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    # Environment variables
    GCS_BUCKET = os.environ.get('GCS_BUCKET')
    GCS_PREFIX = os.environ.get('GCS_PREFIX', 'cisco-amp-events/')
    STATE_KEY = os.environ.get('STATE_KEY', 'cisco-amp-events/state.json')
    API_BASE = os.environ.get('API_BASE')
    AMP_CLIENT_ID = os.environ.get('AMP_CLIENT_ID')
    AMP_API_KEY = os.environ.get('AMP_API_KEY')
    PAGE_SIZE = int(os.environ.get('PAGE_SIZE', '500'))
    MAX_PAGES = int(os.environ.get('MAX_PAGES', '10'))
    
    def parse_datetime(value: str) -> datetime:
        """Parse ISO datetime string to datetime object."""
        if value.endswith("Z"):
            value = value[:-1] + "+00:00"
        return datetime.fromisoformat(value)
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch Cisco AMP events and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        if not all([GCS_BUCKET, API_BASE, AMP_CLIENT_ID, AMP_API_KEY]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(GCS_BUCKET)
    
            # Load state
            state = load_state(bucket, STATE_KEY)
    
            # Determine time window
            now = datetime.now(timezone.utc)
            last_time = None
    
            if isinstance(state, dict) and state.get("last_event_time"):
                try:
                    last_time = parse_datetime(state["last_event_time"])
                    # Overlap by 2 minutes to catch any delayed events
                    last_time = last_time - timedelta(minutes=2)
                except Exception as e:
                    print(f"Warning: Could not parse last_event_time: {e}")
    
            if last_time is None:
                last_time = now - timedelta(days=1)
    
            print(f"Fetching logs from {last_time.isoformat()} to {now.isoformat()}")
    
            # Fetch logs
            records, newest_event_time = fetch_logs(
                api_base=API_BASE,
                client_id=AMP_CLIENT_ID,
                api_key=AMP_API_KEY,
                start_time=last_time,
                page_size=PAGE_SIZE,
                max_pages=MAX_PAGES,
            )
    
            if not records:
                print("No new log records found.")
                save_state(bucket, STATE_KEY, now.isoformat())
                return
    
            # Write to GCS as NDJSON
            timestamp = now.strftime('%Y%m%d_%H%M%S')
            object_key = f"{GCS_PREFIX}cisco_amp_events_{timestamp}.ndjson"
            blob = bucket.blob(object_key)
    
            ndjson = '\n'.join([json.dumps(record, ensure_ascii=False) for record in records]) + '\n'
            blob.upload_from_string(ndjson, content_type='application/x-ndjson')
    
            print(f"Wrote {len(records)} records to gs://{GCS_BUCKET}/{object_key}")
    
            # Update state with newest event time
            if newest_event_time:
                save_state(bucket, STATE_KEY, newest_event_time)
            else:
                save_state(bucket, STATE_KEY, now.isoformat())
    
            print(f"Successfully processed {len(records)} records")
    
        except Exception as e:
            print(f'Error processing logs: {str(e)}')
            raise
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f"Warning: Could not load state: {e}")
    
        return {}
    
    def save_state(bucket, key, last_event_time_iso: str):
        """Save the last event timestamp to GCS state file."""
        try:
            state = {'last_event_time': last_event_time_iso}
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type='application/json'
            )
            print(f"Saved state: last_event_time={last_event_time_iso}")
        except Exception as e:
            print(f"Warning: Could not save state: {e}")
    
    def fetch_logs(api_base: str, client_id: str, api_key: str, start_time: datetime, page_size: int, max_pages: int):
        """
        Fetch logs from Cisco AMP for Endpoints API with pagination and rate limiting.
    
        Args:
            api_base: API base URL
            client_id: API client ID
            api_key: API key
            start_time: Start time for log query
            page_size: Number of records per page
            max_pages: Maximum total pages to fetch
    
        Returns:
            Tuple of (records list, newest_event_time ISO string)
        """
        # Clean up base URL
        base_url = api_base.rstrip('/')
    
        endpoint = f"{base_url}/v1/events"
    
        # Create Basic Auth header
        auth_string = f"{client_id}:{api_key}"
        auth_bytes = auth_string.encode('utf-8')
        auth_b64 = base64.b64encode(auth_bytes).decode('utf-8')
    
        headers = {
            'Authorization': f'Basic {auth_b64}',
            'Accept': 'application/json',
            'User-Agent': 'GoogleSecOps-CiscoAMPCollector/1.0'
        }
    
        records = []
        newest_time = None
        page_num = 0
        backoff = 1.0
    
        # Build initial URL with start_date parameter
        start_date_str = start_time.isoformat() + 'Z' if not start_time.isoformat().endswith('Z') else start_time.isoformat()
        next_url = f"{endpoint}?limit={page_size}&start_date={start_date_str}"
    
        while next_url and page_num < max_pages:
            page_num += 1
    
            try:
                response = http.request('GET', next_url, headers=headers)
    
                # Handle rate limiting with exponential backoff
                if response.status == 429:
                    retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                    print(f"Rate limited (429). Retrying after {retry_after}s...")
                    time.sleep(retry_after)
                    backoff = min(backoff * 2, 30.0)
                    continue
    
                backoff = 1.0
    
                if response.status != 200:
                    print(f"HTTP Error: {response.status}")
                    response_text = response.data.decode('utf-8')
                    print(f"Response body: {response_text[:256]}")
                    return [], None
    
                data = json.loads(response.data.decode('utf-8'))
    
                # Extract events from response
                page_results = data.get('data', [])
    
                if not page_results:
                    print(f"No more results (empty page)")
                    break
    
                print(f"Page {page_num}: Retrieved {len(page_results)} events")
                records.extend(page_results)
    
                # Track newest event time
                for event in page_results:
                    try:
                        event_time = event.get('date')
                        if event_time:
                            if newest_time is None or parse_datetime(event_time) > parse_datetime(newest_time):
                                newest_time = event_time
                    except Exception as e:
                        print(f"Warning: Could not parse event time: {e}")
    
                # Check for next page URL in metadata
                next_url = data.get('metadata', {}).get('links', {}).get('next')
    
                if not next_url:
                    print("No more pages (no next URL)")
                    break
    
            except Exception as e:
                print(f"Error fetching logs: {e}")
                return [], None
    
        print(f"Retrieved {len(records)} total records from {page_num} pages")
        return records, newest_time
    
    • 두 번째 파일: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 cisco-amp-events-collector-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 Pub/Sub 주제 (cisco-amp-events-trigger)를 선택합니다.
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

  • 로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

    빈도 크론 표현식 사용 사례
    5분마다 */5 * * * * 대용량, 저지연
    15분마다 */15 * * * * 검색량 보통
    1시간마다 0 * * * * 일반(권장)
    6시간마다 0 */6 * * * 양이 적은 일괄 처리
    매일 0 0 * * * 이전 데이터 수집

통합 테스트

  1. Cloud Scheduler 콘솔에서 작업을 찾습니다.
  2. 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
  3. 몇 초 동안 기다립니다.
  4. Cloud Run > 서비스로 이동합니다.
  5. 함수 이름 (cisco-amp-events-collector)을 클릭합니다.
  6. 로그 탭을 클릭합니다.
  7. 함수가 성공적으로 실행되었는지 확인합니다. 다음을 확인하세요.

    Fetching logs from YYYY-MM-DDTHH:MM:SS+00:00 to YYYY-MM-DDTHH:MM:SS+00:00
    Page 1: Retrieved X events
    Wrote X records to gs://cisco-amp-logs/cisco-amp-events/cisco_amp_events_YYYYMMDD_HHMMSS.ndjson
    Successfully processed X records
    
  8. Cloud Storage> 버킷으로 이동합니다.

  9. 버킷 이름을 클릭합니다.

  10. 접두사 폴더 (cisco-amp-events/)로 이동합니다.

  11. 현재 타임스탬프를 사용하여 새 .ndjson 파일이 생성되었는지 확인합니다.

로그에 오류가 표시되면 다음 단계를 따르세요.

  • HTTP 401: 환경 변수에서 API 사용자 인증 정보 확인
  • HTTP 403: 계정에 필요한 권한이 있는지 확인
  • HTTP 429: 비율 제한 - 함수가 백오프를 사용하여 자동으로 재시도됩니다.
  • 환경 변수 누락: 필수 변수가 모두 설정되었는지 확인

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

서비스 계정 이메일 가져오기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Cisco AMP for Endpoints logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Cisco AMP를 선택합니다.
  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

Cisco AMP for Endpoints 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Cisco AMP for Endpoints logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Cisco AMP를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://cisco-amp-logs/cisco-amp-events/
      
      • 다음과 같이 바꿉니다.
        • cisco-amp-logs: GCS 버킷 이름입니다.
        • cisco-amp-events/: 로그가 저장되는 접두사/폴더 경로입니다.
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.

  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 로직
활성 read_only_udm.principal.asset.active computer.active에서 직접 매핑됨
connector_guid read_only_udm.principal.asset.uuid computer.connector_guid에서 직접 매핑됨
날짜 read_only_udm.metadata.event_timestamp.seconds 타임스탬프로 변환된 후 날짜에서 직접 매핑됨
감지 read_only_udm.security_result.threat_name 감지에서 직접 매핑됨
detection_id read_only_udm.security_result.detection_fields.value detection_id에서 직접 매핑됨
disposition read_only_udm.security_result.description file.disposition에서 직접 매핑됩니다.
error.error_code read_only_udm.security_result.detection_fields.value error.error_code에서 직접 매핑됨
error.description read_only_udm.security_result.detection_fields.value error.description에서 직접 매핑됩니다.
event_type read_only_udm.metadata.product_event_type event_type에서 직접 매핑됨
event_type_id read_only_udm.metadata.product_log_id event_type_id에서 직접 매핑됨
external_ip read_only_udm.principal.asset.external_ip computer.external_ip에서 직접 매핑됨
file.file_name read_only_udm.target.file.names file.file_name에서 직접 매핑됩니다.
file.file_path read_only_udm.target.file.full_path file.file_path에서 직접 매핑됨
file.identity.md5 read_only_udm.security_result.about.file.md5 file.identity.md5에서 직접 매핑됨
file.identity.md5 read_only_udm.target.file.md5 file.identity.md5에서 직접 매핑됨
file.identity.sha1 read_only_udm.security_result.about.file.sha1 file.identity.sha1에서 직접 매핑됨
file.identity.sha1 read_only_udm.target.file.sha1 file.identity.sha1에서 직접 매핑됨
file.identity.sha256 read_only_udm.security_result.about.file.sha256 file.identity.sha256에서 직접 매핑됨
file.identity.sha256 read_only_udm.target.file.sha256 file.identity.sha256에서 직접 매핑됨
file.parent.disposition read_only_udm.target.resource.attribute.labels.value file.parent.disposition에서 직접 매핑됨
file.parent.file_name read_only_udm.target.resource.attribute.labels.value file.parent.file_name에서 직접 매핑됨
file.parent.identity.md5 read_only_udm.target.resource.attribute.labels.value file.parent.identity.md5에서 직접 매핑됨
file.parent.identity.sha1 read_only_udm.target.resource.attribute.labels.value file.parent.identity.sha1에서 직접 매핑됨
file.parent.identity.sha256 read_only_udm.target.resource.attribute.labels.value file.parent.identity.sha256에서 직접 매핑됨
file.parent.process_id read_only_udm.security_result.about.process.parent_process.pid file.parent.process_id에서 직접 매핑됨
file.parent.process_id read_only_udm.target.process.parent_process.pid file.parent.process_id에서 직접 매핑됨
hostname read_only_udm.principal.asset.hostname computer.hostname에서 직접 매핑됨
hostname read_only_udm.target.hostname computer.hostname에서 직접 매핑됨
hostname read_only_udm.target.asset.hostname computer.hostname에서 직접 매핑됨
ip read_only_udm.principal.asset.ip computer.network_addresses.ip에서 직접 매핑됨
ip read_only_udm.principal.ip computer.network_addresses.ip에서 직접 매핑됨
ip read_only_udm.security_result.about.ip computer.network_addresses.ip에서 직접 매핑됨
mac read_only_udm.principal.mac computer.network_addresses.mac에서 직접 매핑됨
mac read_only_udm.security_result.about.mac computer.network_addresses.mac에서 직접 매핑됨
줄이는 것을 read_only_udm.security_result.severity 다음 논리에 따라 심각도에서 매핑됩니다. - 'Medium' -> 'MEDIUM' - 'High' 또는 'Critical' -> 'HIGH' - 'Low' -> 'LOW' - 그 외 -> 'UNKNOWN_SEVERITY'
타임스탬프 read_only_udm.metadata.event_timestamp.seconds 타임스탬프에서 직접 매핑됨
사용자 read_only_udm.security_result.about.user.user_display_name computer.user에서 직접 매핑됨
사용자 read_only_udm.target.user.user_display_name computer.user에서 직접 매핑됨
vulnerabilities.cve read_only_udm.extensions.vulns.vulnerabilities.cve_id vulnerabilities.cve에서 직접 매핑됨
vulnerabilities.name read_only_udm.extensions.vulns.vulnerabilities.name vulnerabilities.name에서 직접 매핑됨
vulnerabilities.score read_only_udm.extensions.vulns.vulnerabilities.cvss_base_score float로 변환한 후 vulnerabilities.score에서 직접 매핑됨
vulnerabilities.url read_only_udm.extensions.vulns.vulnerabilities.vendor_knowledge_base_article_id vulnerabilities.url에서 직접 매핑됨
vulnerabilities.version read_only_udm.extensions.vulns.vulnerabilities.cvss_version vulnerabilities.version에서 직접 매핑됨
is_alert event_type이 '위협 감지됨', '악용 방지', '실행된 멀웨어', '잠재적 드로퍼 감염', '감염된 파일이 여러 개', '취약한 애플리케이션 감지됨' 중 하나이거나 security_result.severity가 'HIGH'인 경우 true로 설정됩니다.
is_significant event_type이 '위협 감지됨', '악용 방지', '실행된 멀웨어', '잠재적 드로퍼 감염', '감염된 파일이 여러 개', '취약한 애플리케이션 감지됨' 중 하나이거나 security_result.severity가 'HIGH'인 경우 true로 설정됩니다.
read_only_udm.metadata.event_type event_type 및 security_result.severity 값을 기반으로 결정됩니다. - event_type이 'Executed malware', 'Threat Detected', 'Potential Dropper Infection', 'Cloud Recall Detection', 'Malicious Activity Detection', 'Exploit Prevention', 'Multiple Infected Files', 'Cloud IOC', 'System Process Protection', 'Vulnerable Application Detected', 'Threat Quarantined', 'Execution Blocked', 'Cloud Recall Quarantine Successful', 'Cloud Recall Restore from Quarantine Failed', 'Cloud Recall Quarantine Attempt Failed', 'Quarantine Failure' 중 하나인 경우 이벤트 유형이 'SCAN_FILE'로 설정됩니다. - security_result.severity가 'HIGH'이면 이벤트 유형이 'SCAN_FILE'로 설정됩니다. - has_principal과 has_target이 모두 true이면 이벤트 유형이 'SCAN_UNCATEGORIZED'로 설정됩니다. - 그 외의 경우 이벤트 유형은 'GENERIC_EVENT'로 설정됩니다.
read_only_udm.metadata.log_type 'CISCO_AMP'로 설정
read_only_udm.metadata.vendor_name 'CISCO_AMP'로 설정
read_only_udm.security_result.about.file.full_path file.file_path에서 직접 매핑됨
read_only_udm.security_result.about.hostname computer.hostname에서 직접 매핑됨
read_only_udm.security_result.about.user.user_display_name computer.user에서 직접 매핑됨
read_only_udm.security_result.detection_fields.key detection_id의 경우 '감지 ID', error.error_code의 경우 '오류 코드', error.description의 경우 '오류 설명', file.parent.disposition의 경우 '상위 처리', file.parent.file_name의 경우 '상위 파일 이름', file.parent.identity.md5의 경우 '상위 MD5', file.parent.identity.sha1의 경우 '상위 SHA1', file.parent.identity.sha256의 경우 '상위 SHA256'으로 설정
read_only_udm.security_result.summary event_type이 '위협 감지됨', '악용 방지', '실행된 멀웨어', '잠재적 드로퍼 감염', '감염된 파일이 여러 개', '취약한 애플리케이션 감지됨' 중 하나이거나 security_result.severity가 '높음'인 경우 event_type으로 설정됩니다.
read_only_udm.target.asset.ip computer.network_addresses.ip에서 직접 매핑됨
read_only_udm.target.resource.attribute.labels.key file.parent.disposition의 경우 '상위 처리', file.parent.file_name의 경우 '상위 파일 이름', file.parent.identity.md5의 경우 '상위 MD5', file.parent.identity.sha1의 경우 '상위 SHA1', file.parent.identity.sha256의 경우 '상위 SHA256'으로 설정됩니다.
timestamp.seconds 타임스탬프로 변환된 후 날짜에서 직접 매핑됨

도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.