Proofpoint Emerging Threats Pro IOC 로그 수집

다음에서 지원:

이 문서에서는 Google Cloud Storage를 사용하여 Proofpoint Emerging Threats Pro IOC 로그를 Google Security Operations에 수집하는 방법을 설명합니다. Emerging Threats Intelligence는 카테고리, 점수, 시간 정보를 포함한 위협 인텔리전스 데이터와 함께 IP 및 도메인의 평판 목록을 CSV 형식으로 매시간 게시합니다. 파서 코드는 CSV 형식의 ET_PRO 위협 인텔리전스 데이터를 처리합니다. IP 주소, 도메인, 카테고리, 점수, 기타 관련 정보를 추출하여 표준화된 IOC 형식과 Chronicle UDM 스키마에 매핑하여 Google SecOps 내에서 추가 분석 및 사용을 지원합니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Cloud Storage API가 사용 설정된 GCP 프로젝트
  • GCS 버킷을 만들고 관리할 수 있는 권한
  • GCS 버킷의 IAM 정책을 관리할 수 있는 권한
  • Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
  • 평판 목록에 액세스할 수 있는 Proofpoint ET 인텔리전스 구독
  • https://etadmin.proofpoint.com/api-access의 ET Intelligence API 키

Emerging Threats Pro 기본 요건 수집

  1. https://etadmin.proofpoint.com에서 ET Intelligence 관리 포털에 로그인합니다.
  2. API 액세스로 이동합니다.
  3. API 키를 복사하여 저장합니다.
  4. Proofpoint 담당자에게 문의하여 다음을 받으세요.
    • 자세한 IP 평판 목록 URL
    • 세부 도메인 평판 목록 URL

ET Intelligence는 IP 및 도메인 평판 목록에 대해 별도의 CSV 파일을 제공하며, 이는 매시간 업데이트됩니다. 다음 열이 포함된 '세부' 형식을 사용하세요.

  • 도메인 목록: 도메인 이름, 카테고리, 점수, 처음 확인한 날짜, 마지막으로 확인한 날짜, 포트
  • IP 목록: IP 주소, 카테고리, 점수, 처음 본 날짜, 마지막으로 본 날짜, 포트

세부 형식 URL은 일반적으로 다음 패턴을 따릅니다.

  • IP 목록: https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-iprepdata.txt
  • 도메인 목록: https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-domainrepdata.txt

인증 헤더에는 Emerging Threats API 요구사항과 일치하는 Bearer 접두사 없는 원시 API 키 값이 포함되어야 합니다.

Google Cloud Storage 버킷 만들기

  1. Google Cloud Console로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: et-pro-ioc-bucket)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: et-pro-ioc-fetcher-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect Proofpoint ET Pro IOC logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

이러한 역할은 다음 작업에 필요합니다.

  • 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
  • Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
  • Cloud Functions 호출자: 함수 호출 허용

GCS 버킷에 대한 IAM 권한 부여

GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: et-pro-ioc-fetcher-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: et-pro-ioc-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Proofpoint ET Intelligence API에서 로그를 가져오고 GCS에 씁니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 et-pro-ioc-fetcher
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    1. + 트리거 추가를 클릭합니다.
    2. Cloud Pub/Sub를 선택합니다.
    3. Cloud Pub/Sub 주제 선택에서 et-pro-ioc-trigger을 선택합니다.
    4. 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    1. 인증 필요를 선택합니다.
    2. ID 및 액세스 관리 (IAM)를 확인합니다.
  7. 아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.

  8. 보안 탭으로 이동합니다.

    • 서비스 계정: et-pro-ioc-fetcher-sa를 선택합니다.
  9. 컨테이너 탭으로 이동합니다.

    1. 변수 및 보안 비밀을 클릭합니다.
    2. 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
    변수 이름 예시 값 설명
    GCS_BUCKET et-pro-ioc-bucket GCS 버킷 이름
    GCS_PREFIX et-pro-ioc 로그 파일의 접두사
    STATE_KEY et-pro-ioc/state.json 상태 파일 경로
    ET_API_KEY your-et-api-key ET Intelligence API 키
    ET_IP_LIST_URL https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-iprepdata.txt 자세한 IP 평판 목록 URL
    ET_DOMAIN_LIST_URL https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-domainrepdata.txt 세부 도메인 평판 목록 URL
    TIMEOUT 120 HTTP 요청 제한 시간(초)
  10. 변수 및 보안 비밀 탭에서 요청까지 아래로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  11. 컨테이너설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
    • 완료를 클릭합니다.
  12. 실행 환경으로 스크롤합니다.

    • 기본을 선택합니다 (권장).
  13. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  14. 만들기를 클릭합니다.

  15. 서비스가 생성될 때까지 기다립니다 (1~2분).

  16. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 함수 진입점main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone
    import time
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch ET Pro IOC reputation lists and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        # Get environment variables
        bucket_name = os.environ.get('GCS_BUCKET')
        prefix = os.environ.get('GCS_PREFIX', 'et-pro-ioc').strip('/')
        state_key = os.environ.get('STATE_KEY', f'{prefix}/state.json')
        et_api_key = os.environ.get('ET_API_KEY')
        et_ip_list_url = os.environ.get('ET_IP_LIST_URL')
        et_domain_list_url = os.environ.get('ET_DOMAIN_LIST_URL')
        timeout = int(os.environ.get('TIMEOUT', '120'))
    
        if not all([bucket_name, et_api_key, et_ip_list_url, et_domain_list_url]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(bucket_name)
    
            # Generate timestamp for file naming
            now = datetime.now(timezone.utc)
            timestamp = now.strftime('%Y/%m/%d/%H%M%S')
    
            results = []
            errors = []
    
            # Fetch IP reputation list
            try:
                print('Fetching IP reputation list...')
                ip_data = fetch_with_retry(et_ip_list_url, et_api_key, timeout)
                ip_key = f'{prefix}/ip/{timestamp}.csv'
                save_to_gcs(bucket, ip_key, ip_data)
                results.append({'type': 'ip', 'key': ip_key, 'size': len(ip_data)})
                print(f'Successfully fetched IP list: {len(ip_data)} bytes')
            except Exception as e:
                error_msg = f'Failed to fetch IP list: {str(e)}'
                print(error_msg)
                errors.append(error_msg)
    
            # Fetch Domain reputation list
            try:
                print('Fetching Domain reputation list...')
                domain_data = fetch_with_retry(et_domain_list_url, et_api_key, timeout)
                domain_key = f'{prefix}/domain/{timestamp}.csv'
                save_to_gcs(bucket, domain_key, domain_data)
                results.append({'type': 'domain', 'key': domain_key, 'size': len(domain_data)})
                print(f'Successfully fetched Domain list: {len(domain_data)} bytes')
            except Exception as e:
                error_msg = f'Failed to fetch Domain list: {str(e)}'
                print(error_msg)
                errors.append(error_msg)
    
            # Save state
            state = {
                'last_fetch': now.isoformat(),
                'results': results,
                'errors': errors
            }
            save_state(bucket, state_key, state)
    
            if errors:
                print(f'Completed with {len(errors)} error(s)')
            else:
                print('Successfully completed all fetches')
    
        except Exception as e:
            print(f'Error processing logs: {str(e)}')
            raise
    
    def fetch_with_retry(url, api_key, timeout, max_retries=3):
        """Fetch URL with retry logic for rate limits."""
        if not url.lower().startswith('https://'):
            raise ValueError('Only HTTPS URLs are allowed')
    
        headers = {'Authorization': api_key}
    
        for attempt in range(max_retries):
            try:
                response = http.request('GET', url, headers=headers, timeout=timeout)
    
                if response.status == 200:
                    return response.data
                elif response.status == 429:
                    # Rate limited, wait and retry
                    wait_time = min(30 * (2 ** attempt), 300)
                    print(f'Rate limited, waiting {wait_time}s...')
                    time.sleep(wait_time)
                else:
                    raise Exception(f'HTTP {response.status}: {response.reason}')
            except Exception as e:
                if attempt == max_retries - 1:
                    raise
                time.sleep(5 * (attempt + 1))
    
        raise Exception(f'Failed to fetch {url} after {max_retries} attempts')
    
    def save_to_gcs(bucket, key, content):
        """Save content to GCS with appropriate content type."""
        blob = bucket.blob(key)
        blob.upload_from_string(content, content_type='text/csv')
        print(f'Saved {len(content)} bytes to gs://{bucket.name}/{key}')
    
    def save_state(bucket, key, state):
        """Save state to GCS."""
        try:
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type='application/json'
            )
        except Exception as e:
            print(f'Warning: Could not save state: {str(e)}')
    
    • 두 번째 파일: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 et-pro-ioc-fetcher-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 et-pro-ioc-trigger 선택
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

  • 로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

    빈도 크론 표현식 사용 사례
    1시간마다 0 * * * * 표준 (ET Pro IOC에 권장)
    2시간마다 0 */2 * * * 주파수 낮추기
    6시간마다 0 */6 * * * 최소 업데이트

통합 테스트

  1. Cloud Scheduler 콘솔에서 작업을 찾습니다.
  2. 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
  3. 몇 초 동안 기다립니다.
  4. Cloud Run > 서비스로 이동합니다.
  5. 함수 이름 (et-pro-ioc-fetcher)을 클릭합니다.
  6. 로그 탭을 클릭합니다.
  7. 함수가 성공적으로 실행되었는지 확인합니다. 다음을 확인하세요.

    Fetching IP reputation list...
    Successfully fetched IP list: X bytes
    Fetching Domain reputation list...
    Successfully fetched Domain list: X bytes
    Successfully completed all fetches
    
  8. Cloud Storage> 버킷으로 이동합니다.

  9. 버킷 이름을 클릭합니다.

  10. 접두사 폴더 (et-pro-ioc/ip/et-pro-ioc/domain/)로 이동합니다.

  11. .csv 파일이 현재 타임스탬프로 생성되었는지 확인합니다.

로그에 오류가 표시되면 다음 단계를 따르세요.

  • HTTP 401: 환경 변수에서 ET_API_KEY 확인
  • HTTP 403: API 키에 필요한 권한이 있는지 확인
  • HTTP 429: 비율 제한 - 함수가 백오프를 사용하여 자동으로 재시도됩니다.
  • 환경 변수 누락: 필수 변수가 모두 설정되었는지 확인

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

서비스 계정 이메일 가져오기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: ET Pro IOC - IP Reputation).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Emerging Threats Pro를 선택합니다.
  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

Proofpoint Emerging Threats Pro IOC 로그를 수집하도록 Google SecOps에서 피드 구성

IP 평판용 피드와 도메인 평판용 피드 등 별도의 피드 두 개를 만들어야 합니다.

IP 평판 피드 만들기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 ET Pro IOC - IP Reputation를 입력합니다.
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Emerging Threats Pro를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://et-pro-ioc-bucket/et-pro-ioc/ip/
      
      • et-pro-ioc-bucket을 실제 GCS 버킷 이름으로 바꿉니다.
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용된 라벨입니다.

  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

도메인 평판 피드 만들기

피드 생성 프로세스를 반복합니다.

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 ET Pro IOC - Domain Reputation를 입력합니다.
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Emerging Threats Pro를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.
    gs://et-pro-ioc-bucket/et-pro-ioc/domain/
    

    et-pro-ioc-bucket을 실제 GCS 버킷 이름으로 바꿉니다.

    • 소스 삭제 옵션: 환경설정에 따라 선택합니다.
    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.
    • 애셋 네임스페이스: 애셋 네임스페이스입니다.
    • 수집 라벨: 이 피드의 이벤트에 적용된 라벨입니다.
  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 로직
카테고리 이 필드는 파서 로직에서 사용되지만 UDM에 직접 매핑되지는 않습니다. 조회 테이블을 통해 event.ioc.categorization 값을 결정합니다.
collection_time.nanos event.idm.entity.metadata.collected_timestamp.nanos 원시 로그에서 직접 매핑됩니다.
collection_time.seconds event.idm.entity.metadata.collected_timestamp.seconds 원시 로그에서 직접 매핑됩니다.
데이터 이 필드는 콘텐츠에 따라 여러 UDM 필드로 파싱됩니다.
first_seen event.idm.entity.metadata.interval.start_time 날짜로 파싱되어 UDM에 매핑됩니다.
first_seen event.ioc.active_timerange.start 날짜로 파싱되어 UDM에 매핑됩니다.
ip_or_domain event.idm.entity.entity.hostname Grok 패턴이 필드에서 호스트를 추출하는 경우 UDM에 매핑됩니다.
ip_or_domain event.idm.entity.entity.ip grok 패턴이 필드에서 호스트를 추출하지 않는 경우 UDM에 매핑됩니다.
ip_or_domain event.ioc.domain_and_ports.domain Grok 패턴이 필드에서 호스트를 추출하는 경우 UDM에 매핑됩니다.
ip_or_domain event.ioc.ip_and_ports.ip_address grok 패턴이 필드에서 호스트를 추출하지 않는 경우 UDM에 매핑됩니다.
last_seen event.idm.entity.metadata.interval.end_time 날짜로 파싱되어 UDM에 매핑됩니다.
last_seen event.ioc.active_timerange.end 날짜로 파싱되어 UDM에 매핑됩니다.
ports event.idm.entity.entity.labels.value 포트가 여러 개인 경우 쉼표 구분자로 파싱되고 결합되어 UDM에 매핑됩니다.
ports event.idm.entity.entity.port 포트가 하나만 있는 경우 파싱되어 UDM에 매핑됩니다.
ports event.ioc.domain_and_ports.ports grok 패턴이 필드에서 호스트를 추출하는 경우 파싱되고 UDM에 매핑됩니다.
ports event.ioc.ip_and_ports.ports grok 패턴이 필드에서 호스트를 추출하지 않으면 파싱되어 UDM에 매핑됩니다.
점수 event.ioc.confidence_score 원시 로그에서 직접 매핑됩니다.
event.idm.entity.entity.labels.key 포트가 여러 개인 경우 'ports'로 설정합니다.
event.idm.entity.metadata.entity_type grok 패턴이 ip_or_domain 필드에서 호스트를 추출하는 경우 'DOMAIN_NAME'으로 설정하고, 그렇지 않으면 'IP_ADDRESS'로 설정합니다.
event.idm.entity.metadata.threat.category 'SOFTWARE_MALICIOUS'로 설정합니다.
event.idm.entity.metadata.threat.category_details 조회 테이블을 사용하여 카테고리 필드에서 파생됩니다.
event.idm.entity.metadata.threat.threat_name 'ET Intelligence Rep List'로 설정합니다.
event.idm.entity.metadata.vendor_name 'ET_PRO_IOC'로 설정합니다.
event.ioc.feed_name 'ET Intelligence Rep List'로 설정합니다.
event.ioc.raw_severity '악성'으로 설정합니다.
timestamp.nanos collection_time.nanos에서 복사했습니다.
timestamp.seconds collection_time.seconds에서 복사했습니다.

도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.