HYPR MFA 로그 수집

다음에서 지원:

이 문서에서는 웹훅 또는 Google Cloud Storage V2를 사용하여 HYPR MFA 로그를 Google Security Operations에 수집하는 방법을 설명합니다.

HYPR MFA는 FIDO2 패스키, 생체 인식, 모바일 시작 로그인을 사용하여 피싱 방지 인증을 제공하는 암호 없는 다중 인증 솔루션입니다. HYPR은 기존 비밀번호를 안전한 공개 키 암호화로 대체하여 사용자 인증 정보를 기반으로 하는 공격을 제거하는 동시에 워크스테이션, 웹 애플리케이션, 클라우드 서비스 전반에서 사용자 인증을 간소화합니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • HYPR Control Center에 대한 관리 액세스 권한
  • 모니터링할 RP 애플리케이션에 맞춤 이벤트 후크를 사용 설정하려면 HYPR 지원팀에 문의하세요.

수집 방법 차이

HYPR MFA는 Google Security Operations에 로그를 전송하는 두 가지 방법을 지원합니다.

  • 웹훅 (권장): HYPR은 맞춤 이벤트 후크를 통해 Google Security Operations에 실시간으로 이벤트를 전송합니다. 이 메서드는 즉각적인 이벤트 전송을 제공하며 추가 인프라가 필요하지 않습니다.
  • Google Cloud Storage: HYPR 이벤트는 API를 통해 수집되고 GCS에 저장된 후 Google Security Operations에서 수집합니다. 이 방법은 일괄 처리 및 이전 데이터 보관을 제공합니다.

요구사항에 가장 적합한 방법을 선택하세요.

기능 웹훅 Google Cloud Storage
지연 시간 실시간 (초) 일괄 처리 (분~시간)
인프라 필수 아님 Cloud Run 함수가 있는 GCP 프로젝트
이전 데이터 이벤트 스트림으로 제한됨 GCS의 전체 보관
설정 난이도 간편 보통
비용 최소 GCP 컴퓨팅 및 스토리지 비용

옵션 1: 웹훅 통합 구성

Google SecOps에서 웹훅 피드 만들기

피드 만들기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 다음 페이지에서 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: HYPR MFA Events).
  5. 소스 유형으로 웹훅을 선택합니다.
  6. 로그 유형으로 HYPR MFA를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 파라미터의 값을 지정합니다.
    • 분할 구분 기호 (선택사항): 비워 둡니다. 각 웹훅 요청에는 단일 JSON 이벤트가 포함됩니다.
    • 애셋 네임스페이스: 애셋 네임스페이스입니다.
    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.
  9. 다음을 클릭합니다.
  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

보안 비밀 키 생성 및 저장

피드를 만든 후 인증을 위한 보안 비밀 키를 생성해야 합니다.

  1. 피드 세부정보 페이지에서 보안 비밀 키 생성을 클릭합니다.
  2. 대화상자에 보안 비밀 키가 표시됩니다.
  3. 보안 비밀번호를 안전하게 복사하여 저장합니다.

피드 엔드포인트 URL 가져오기

  1. 피드의 세부정보 탭으로 이동합니다.
  2. 엔드포인트 정보 섹션에서 피드 엔드포인트 URL을 복사합니다.
  3. URL 형식은 다음과 같습니다.

    https://malachiteingestion-pa.googleapis.com/v2/unstructuredlogentries:batchCreate
    

    또는

    https://<REGION>-malachiteingestion-pa.googleapis.com/v2/unstructuredlogentries:batchCreate
    
  4. 다음 단계를 위해 이 URL을 저장합니다.

  5. 완료를 클릭합니다.

Google Cloud API 키 만들기

Chronicle에는 인증을 위한 API 키가 필요합니다. Google Cloud 콘솔에서 제한된 API 키를 만듭니다.

API 키 만들기

  1. Google Cloud 콘솔 사용자 인증 정보 페이지로 이동합니다.
  2. 프로젝트 (Chronicle 인스턴스와 연결된 프로젝트)를 선택합니다.
  3. 사용자 인증 정보 만들기 API 키를 클릭합니다.
  4. API 키가 생성되어 대화상자에 표시됩니다.
  5. API 키 수정을 클릭하여 키를 제한합니다.

API 키 제한

  1. API 키 설정 페이지에서 다음을 수행합니다.
    • 이름: 설명이 포함된 이름을 입력합니다 (예: Chronicle Webhook API Key).
  2. API 제한사항에서 다음을 수행합니다.
    1. 키 제한을 선택합니다.
    2. API 선택 드롭다운에서 Google SecOps API (또는 Chronicle API)를 검색하여 선택합니다.
  3. 저장을 클릭합니다.
  4. 페이지 상단의 API 키 필드에서 API 키 값을 복사합니다.
  5. API 키를 안전하게 저장합니다.

HYPR MFA 맞춤 이벤트 후크 구성

헤더를 사용하여 웹훅 URL 구성

HYPR은 인증을 위한 맞춤 헤더를 지원합니다. 보안 강화를 위해 헤더 인증 방법을 사용하세요.

  • 엔드포인트 URL (매개변수 없음):

    <ENDPOINT_URL>
    
  • 헤더:

    x-goog-chronicle-auth: <API_KEY>
    x-chronicle-auth: <SECRET_KEY>
    
    • 다음과 같이 바꿉니다.
      • <ENDPOINT_URL>: 이전 단계의 피드 엔드포인트 URL입니다.
      • <API_KEY>: 생성한 Google Cloud API 키입니다.
      • <SECRET_KEY>: Chronicle 피드 생성에서 가져온 보안 비밀 키입니다.

맞춤 이벤트 후크 JSON 구성 준비

  • HYPR 맞춤 이벤트 후크는 JSON을 사용하여 구성됩니다. 자리표시자 값을 바꿔 다음 JSON 구성을 준비합니다.

    {
      "name": "Chronicle SIEM Integration",
      "eventType": "ALL",
      "invocationEndpoint": "<ENDPOINT_URL>",
      "httpMethod": "POST",
      "authType": "API_KEY",
      "authParams": {
        "apiKeyAuthParameters": {
          "apiKeyName": "x-goog-chronicle-auth",
          "apiKeyValue": "<API_KEY>"
        },
        "invocationHttpParameters": {
          "headerParameters": [
            {
              "key": "Content-Type",
              "value": "application/json",
              "isValueSecret": false
            },
            {
              "key": "x-chronicle-auth",
              "value": "<SECRET_KEY>",
              "isValueSecret": true
            }
          ]
        }
      }
    }
    
    • 다음과 같이 바꿉니다.

      • <ENDPOINT_URL>: Chronicle 피드 엔드포인트 URL입니다.
      • <API_KEY>: Google Cloud API 키입니다.
      • <SECRET_KEY>: Chronicle 보안 비밀 키입니다.
    • 구성 매개변수:

    • name: 이벤트 후크의 설명이 포함된 이름입니다 (예: Chronicle SIEM Integration).

    • eventType: 모든 HYPR 이벤트를 전송하려면 ALL로 설정하고, AUTHENTICATION, REGISTRATION, ACCESS_TOKEN과 같은 특정 이벤트 태그를 지정합니다.

    • invocationEndpoint: Chronicle 피드 엔드포인트 URL입니다.

    • httpMethod: POST로 설정합니다.

    • authType: API 키 인증의 경우 API_KEY로 설정합니다.

    • apiKeyName: API 키 (x-goog-chronicle-auth)의 헤더 이름입니다.

    • apiKeyValue: Google Cloud API 키 값입니다.

    • headerParameters: Content-Type: application/jsonx-chronicle-auth 헤더의 Chronicle 보안 키를 포함한 추가 헤더입니다.

HYPR Control Center에서 맞춤 이벤트 후크 만들기

  1. 관리자 계정으로 HYPR Control Center에 로그인합니다.
  2. 왼쪽 탐색 메뉴에서 Integrations를 클릭합니다.
  3. 통합 페이지에서 새 통합 추가를 클릭합니다.
  4. HYPR Control Center에 사용 가능한 통합이 표시됩니다.
  5. 맞춤 이벤트이벤트 후크 아래에 있는 타일을 클릭합니다.
  6. 새 이벤트 후크 추가를 클릭합니다.
  7. 새 이벤트 후크 추가 대화상자에서 준비한 JSON 콘텐츠를 텍스트 필드에 붙여넣습니다.
  8. 이벤트 후크 추가를 클릭합니다.
  9. HYPR Control Center가 Event Hooks 페이지로 돌아갑니다.

이제 맞춤 이벤트 후크가 구성되었으며 Google SecOps로 이벤트를 전송하기 시작합니다.

웹훅이 작동하는지 확인

HYPR Control Center 이벤트 후크 상태 확인

  1. HYPR Control Center에 로그인합니다.
  2. 통합으로 이동합니다.
  3. 맞춤 이벤트 통합을 클릭합니다.
  4. 이벤트 후크 표에서 이벤트 후크가 나열되어 있는지 확인합니다.
  5. 이벤트 후크 이름을 클릭하여 세부정보를 확인합니다.
  6. 구성이 설정과 일치하는지 확인합니다.

Chronicle 피드 상태 확인

  1. Chronicle에서 SIEM 설정 > 피드로 이동합니다.
  2. 웹훅 피드를 찾습니다.
  3. 상태 열을 확인합니다 (활성이어야 함).
  4. 수신된 이벤트 수를 확인합니다 (증가해야 함).
  5. 최종 성공 시간 타임스탬프를 확인합니다 (최근이어야 함).

Chronicle에서 로그 확인

  1. 검색 > UDM 검색으로 이동합니다.
  2. 다음 쿼리를 사용하세요.

    metadata.vendor_name = "HYPR" AND metadata.product_name = "MFA"
    
  3. 기간을 지난 1시간으로 조정합니다.

  4. 이벤트가 결과에 표시되는지 확인합니다.

인증 방법 참조

HYPR 맞춤 이벤트 후크는 여러 인증 방법을 지원합니다. Chronicle의 권장 방법은 맞춤 헤더를 사용한 API 키 인증입니다.

  • 구성:

    {
      "authType": "API_KEY",
      "authParams": {
        "apiKeyAuthParameters": {
          "apiKeyName": "x-goog-chronicle-auth",
          "apiKeyValue": "<API_KEY>"
        },
        "invocationHttpParameters": {
          "headerParameters": [
            {
              "key": "Content-Type",
              "value": "application/json",
              "isValueSecret": false
            },
            {
              "key": "x-chronicle-auth",
              "value": "<SECRET_KEY>",
              "isValueSecret": true
            }
          ]
        }
      }
    }
    
  • 장점:

    • 헤더에 전송된 API 키 및 보안 비밀 (URL 매개변수보다 안전함)
    • 여러 인증 헤더를 지원합니다.
    • 헤더가 웹 서버 액세스 로그에 기록되지 않습니다.

기본 인증

  • 구성:

    {
      "authType": "BASIC",
      "authParams": {
        "basicAuthParameters": {
          "username": "your-username",
          "password": "your-password"
        },
        "invocationHttpParameters": {
          "headerParameters": [
            {
              "key": "Content-Type",
              "value": "application/json",
              "isValueSecret": false
            }
          ]
        }
      }
    }
    
    • 사용 사례: 대상 시스템에 HTTP 기본 인증이 필요한 경우

OAuth 2.0 클라이언트 사용자 인증 정보

  • 구성:

    {
      "authType": "OAUTH_CLIENT_CREDENTIALS",
      "authParams": {
        "oauthParameters": {
          "clientParameters": {
            "clientId": "your-client-id",
            "clientSecret": "your-client-secret"
          },
          "authorizationEndpoint": "https://login.example.com/oauth2/v2.0/token",
          "httpMethod": "POST",
          "oauthHttpParameters": {
            "bodyParameters": [
              {
                "key": "scope",
                "value": "api://your-api/.default",
                "isValueSecret": false
              },
              {
                "key": "grant_type",
                "value": "client_credentials",
                "isValueSecret": false
              }
            ]
          }
        },
        "invocationHttpParameters": {
          "headerParameters": [
            {
              "key": "Content-Type",
              "value": "application/json",
              "isValueSecret": false
            }
          ]
        }
      }
    }
    
    • 사용 사례: 대상 시스템에 OAuth 2.0 인증이 필요한 경우

이벤트 유형 및 필터링

HYPR 이벤트는 eventTags 매개변수를 사용하여 그룹화됩니다. 모든 이벤트를 전송하거나 특정 이벤트 유형별로 필터링하도록 맞춤 이벤트 후크를 구성할 수 있습니다.

이벤트 태그

  • 인증: 사용자 인증 이벤트 (로그인, 잠금 해제)입니다.
  • REGISTRATION: 기기 등록 이벤트 (휴대기기, 보안 키 페어링).
  • ACCESS_TOKEN: 액세스 토큰 생성 및 사용 이벤트입니다.
  • AUDIT: 감사 로그 이벤트 (관리 작업, 구성 변경사항)

이벤트 필터링 구성

특정 이벤트 유형만 전송하려면 JSON 구성에서 eventType 매개변수를 수정합니다.

  • 모든 이벤트 전송:

    {
      "eventType": "ALL"
    }
    
  • 인증 이벤트만 전송:

    {
      "eventType": "AUTHENTICATION"
    }
    
  • 등록 이벤트만 전송:

    {
      "eventType": "REGISTRATION"
    }
    

옵션 2: Google Cloud Storage 통합 구성

GCS 통합을 위한 추가 기본 요건

'시작하기 전에' 섹션에 나열된 기본 요건 외에 다음이 필요합니다.

  • Cloud Storage API가 사용 설정된 GCP 프로젝트
  • GCS 버킷을 만들고 관리할 수 있는 권한
  • GCS 버킷의 IAM 정책을 관리할 수 있는 권한
  • Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
  • HYPR API 사용자 인증 정보 (API 액세스에 관해 HYPR 지원팀에 문의)

Google Cloud Storage 버킷 만들기

  1. Google Cloud Console로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: hypr-mfa-logs)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

HYPR API 사용자 인증 정보 수집

HYPR 지원팀에 문의하여 HYPR 이벤트 데이터에 액세스할 수 있는 API 사용자 인증 정보를 받으세요. 필요한 사항은 다음과 같습니다.

  • API 기준 URL: HYPR 인스턴스 URL (예: https://your-tenant.hypr.com)
  • API 토큰: API 액세스를 위한 인증 토큰
  • RP 앱 ID: 모니터링할 신뢰 당사자 애플리케이션 ID

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: hypr-logs-collector-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect HYPR MFA logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

이러한 역할은 다음 작업에 필요합니다.

  • 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
  • Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
  • Cloud Functions 호출자: 함수 호출 허용

GCS 버킷에 IAM 권한 부여

서비스 계정 (hypr-logs-collector-sa)에 GCS 버킷에 대한 쓰기 권한을 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름 (예: hypr-mfa-logs)을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: hypr-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: hypr-logs-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 HYPR API에서 로그를 가져와 GCS에 기록합니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 hypr-logs-collector
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    1. + 트리거 추가를 클릭합니다.
    2. Cloud Pub/Sub를 선택합니다.
    3. Cloud Pub/Sub 주제 선택에서 Pub/Sub 주제 (hypr-logs-trigger)를 선택합니다.
    4. 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    1. 인증 필요를 선택합니다.
    2. ID 및 액세스 관리 (IAM)를 확인합니다.
  7. 아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.

  8. 보안 탭으로 이동합니다.

    • 서비스 계정: 서비스 계정 (hypr-logs-collector-sa)을 선택합니다.
  9. 컨테이너 탭으로 이동합니다.

    1. 변수 및 보안 비밀을 클릭합니다.
    2. 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
    변수 이름 예제 값 설명
    GCS_BUCKET hypr-mfa-logs GCS 버킷 이름
    GCS_PREFIX hypr-events 로그 파일의 접두사
    STATE_KEY hypr-events/state.json 상태 파일 경로
    HYPR_API_URL https://your-tenant.hypr.com HYPR API 기본 URL
    HYPR_API_TOKEN your-api-token HYPR API 인증 토큰
    HYPR_RP_APP_ID your-rp-app-id HYPR RP 애플리케이션 ID
    MAX_RECORDS 1000 실행당 최대 레코드 수
    PAGE_SIZE 100 페이지당 레코드 수
    LOOKBACK_HOURS 24 초기 전환 확인 기간
  10. 변수 및 보안 비밀 섹션에서 요청까지 아래로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  11. 설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
  12. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  13. 만들기를 클릭합니다.

  14. 서비스가 생성될 때까지 기다립니다 (1~2분).

  15. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 진입점 필드에 main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    import base64
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    # Environment variables
    GCS_BUCKET = os.environ.get('GCS_BUCKET')
    GCS_PREFIX = os.environ.get('GCS_PREFIX', 'hypr-events')
    STATE_KEY = os.environ.get('STATE_KEY', 'hypr-events/state.json')
    HYPR_API_URL = os.environ.get('HYPR_API_URL')
    HYPR_API_TOKEN = os.environ.get('HYPR_API_TOKEN')
    HYPR_RP_APP_ID = os.environ.get('HYPR_RP_APP_ID')
    MAX_RECORDS = int(os.environ.get('MAX_RECORDS', '1000'))
    PAGE_SIZE = int(os.environ.get('PAGE_SIZE', '100'))
    LOOKBACK_HOURS = int(os.environ.get('LOOKBACK_HOURS', '24'))
    
    def to_unix_millis(dt: datetime) -> int:
        """Convert datetime to Unix epoch milliseconds."""
        if dt.tzinfo is None:
            dt = dt.replace(tzinfo=timezone.utc)
        dt = dt.astimezone(timezone.utc)
        return int(dt.timestamp() * 1000)
    
    def parse_datetime(value: str) -> datetime:
        """Parse ISO datetime string to datetime object."""
        if value.endswith("Z"):
            value = value[:-1] + "+00:00"
        return datetime.fromisoformat(value)
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch HYPR MFA logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        if not all([GCS_BUCKET, HYPR_API_URL, HYPR_API_TOKEN, HYPR_RP_APP_ID]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(GCS_BUCKET)
    
            # Load state
            state = load_state(bucket, STATE_KEY)
    
            # Determine time window
            now = datetime.now(timezone.utc)
            last_time = None
    
            if isinstance(state, dict) and state.get("last_event_time"):
                try:
                    last_time = parse_datetime(state["last_event_time"])
                    # Overlap by 2 minutes to catch any delayed events
                    last_time = last_time - timedelta(minutes=2)
                except Exception as e:
                    print(f"Warning: Could not parse last_event_time: {e}")
    
            if last_time is None:
                last_time = now - timedelta(hours=LOOKBACK_HOURS)
    
            print(f"Fetching logs from {last_time.isoformat()} to {now.isoformat()}")
    
            # Convert to Unix milliseconds for HYPR API
            start_millis = to_unix_millis(last_time)
            end_millis = to_unix_millis(now)
    
            # Fetch logs
            records, newest_event_time = fetch_logs(
                api_url=HYPR_API_URL,
                api_token=HYPR_API_TOKEN,
                rp_app_id=HYPR_RP_APP_ID,
                start_time_ms=start_millis,
                end_time_ms=end_millis,
                page_size=PAGE_SIZE,
                max_records=MAX_RECORDS,
            )
    
            if not records:
                print("No new log records found.")
                save_state(bucket, STATE_KEY, now.isoformat())
                return
    
            # Write to GCS as NDJSON
            timestamp = now.strftime('%Y%m%d_%H%M%S')
            object_key = f"{GCS_PREFIX}/logs_{timestamp}.ndjson"
            blob = bucket.blob(object_key)
    
            ndjson = '\n'.join([json.dumps(record, ensure_ascii=False) for record in records]) + '\n'
            blob.upload_from_string(ndjson, content_type='application/x-ndjson')
    
            print(f"Wrote {len(records)} records to gs://{GCS_BUCKET}/{object_key}")
    
            # Update state with newest event time
            if newest_event_time:
                save_state(bucket, STATE_KEY, newest_event_time)
            else:
                save_state(bucket, STATE_KEY, now.isoformat())
    
            print(f"Successfully processed {len(records)} records")
    
        except Exception as e:
            print(f'Error processing logs: {str(e)}')
            raise
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f"Warning: Could not load state: {e}")
    
        return {}
    
    def save_state(bucket, key, last_event_time_iso: str):
        """Save the last event timestamp to GCS state file."""
        try:
            state = {'last_event_time': last_event_time_iso}
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type='application/json'
            )
            print(f"Saved state: last_event_time={last_event_time_iso}")
        except Exception as e:
            print(f"Warning: Could not save state: {e}")
    
    def fetch_logs(api_url: str, api_token: str, rp_app_id: str, start_time_ms: int, end_time_ms: int, page_size: int, max_records: int):
        """
        Fetch logs from HYPR API with pagination and rate limiting.
    
        Args:
            api_url: HYPR API base URL
            api_token: HYPR API authentication token
            rp_app_id: HYPR RP application ID
            start_time_ms: Start time in Unix milliseconds
            end_time_ms: End time in Unix milliseconds
            page_size: Number of records per page
            max_records: Maximum total records to fetch
    
        Returns:
            Tuple of (records list, newest_event_time ISO string)
        """
        # Clean up API URL
        base_url = api_url.rstrip('/')
    
        endpoint = f"{base_url}/rp/api/versioned/events"
    
        # Bearer token authentication
        headers = {
            'Authorization': f'Bearer {api_token}',
            'Accept': 'application/json',
            'Content-Type': 'application/json',
            'User-Agent': 'GoogleSecOps-HYPRCollector/1.0'
        }
    
        records = []
        newest_time = None
        page_num = 0
        backoff = 1.0
    
        # Offset-based pagination
        start_index = 0
    
        while True:
            page_num += 1
    
            if len(records) >= max_records:
                print(f"Reached max_records limit ({max_records})")
                break
    
            # Build request parameters
            params = []
            params.append(f"rpAppId={rp_app_id}")
            params.append(f"startDate={start_time_ms}")
            params.append(f"endDate={end_time_ms}")
            params.append(f"start={start_index}")
            params.append(f"limit={min(page_size, max_records - len(records))}")
            url = f"{endpoint}?{'&'.join(params)}"
    
            try:
                response = http.request('GET', url, headers=headers)
    
                # Handle rate limiting with exponential backoff
                if response.status == 429:
                    retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                    print(f"Rate limited (429). Retrying after {retry_after}s...")
                    time.sleep(retry_after)
                    backoff = min(backoff * 2, 30.0)
                    continue
    
                backoff = 1.0
    
                if response.status != 200:
                    print(f"HTTP Error: {response.status}")
                    response_text = response.data.decode('utf-8')
                    print(f"Response body: {response_text}")
                    return [], None
    
                data = json.loads(response.data.decode('utf-8'))
    
                # Extract results
                page_results = data.get('data', [])
    
                if not page_results:
                    print(f"No more results (empty page)")
                    break
    
                print(f"Page {page_num}: Retrieved {len(page_results)} events")
                records.extend(page_results)
    
                # Track newest event time
                for event in page_results:
                    try:
                        # HYPR uses LOGGEDTIMEINUTC field with Unix milliseconds
                        event_time_ms = event.get('LOGGEDTIMEINUTC')
                        if event_time_ms:
                            event_dt = datetime.fromtimestamp(event_time_ms / 1000, tz=timezone.utc)
                            event_time = event_dt.isoformat()
                            if newest_time is None or parse_datetime(event_time) > parse_datetime(newest_time):
                                newest_time = event_time
                    except Exception as e:
                        print(f"Warning: Could not parse event time: {e}")
    
                # Check for more results
                current_size = data.get('size', 0)
                if current_size < page_size:
                    print(f"Reached last page (size={current_size} < limit={page_size})")
                    break
    
                start_index += current_size
    
            except Exception as e:
                print(f"Error fetching logs: {e}")
                return [], None
    
        print(f"Retrieved {len(records)} total records from {page_num} pages")
        return records, newest_time
    
    • 두 번째 파일: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제 (hypr-logs-trigger)에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 hypr-logs-collector-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 Pub/Sub 주제 (hypr-logs-trigger)를 선택합니다.
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

빈도 크론 표현식 사용 사례
5분마다 */5 * * * * 대용량, 저지연
15분마다 */15 * * * * 검색량 보통
1시간마다 0 * * * * 표준 (권장)
6시간마다 0 */6 * * * 양이 적은 일괄 처리
매일 0 0 * * * 이전 데이터 수집

통합 테스트

  1. Cloud Scheduler 콘솔에서 작업을 찾습니다 (hypr-logs-collector-hourly).
  2. 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
  3. 몇 초 동안 기다립니다.
  4. Cloud Run > 서비스로 이동합니다.
  5. 함수 이름 (hypr-logs-collector)을 클릭합니다.
  6. 로그 탭을 클릭합니다.
  7. 함수가 성공적으로 실행되었는지 확인합니다. 다음 항목을 찾습니다.

    Fetching logs from YYYY-MM-DDTHH:MM:SS+00:00 to YYYY-MM-DDTHH:MM:SS+00:00
    Page 1: Retrieved X events
    Wrote X records to gs://bucket-name/prefix/logs_YYYYMMDD_HHMMSS.ndjson
    Successfully processed X records
    
  8. Cloud Storage> 버킷으로 이동합니다.

  9. 버킷 이름 (예: hypr-mfa-logs)을 클릭합니다.

  10. 접두사 폴더 (예: hypr-events/)로 이동합니다.

  11. 현재 타임스탬프를 사용하여 새 .ndjson 파일이 생성되었는지 확인합니다.

로그에 오류가 표시되면 다음 단계를 따르세요.

  • HTTP 401: 환경 변수에서 API 사용자 인증 정보 확인
  • HTTP 403: HYPR API 토큰에 필요한 권한이 있고 RP 앱 ID가 올바른지 확인
  • HTTP 429: 비율 제한 - 함수가 백오프를 사용하여 자동으로 재시도됩니다.
  • 환경 변수 누락: 필수 변수가 모두 설정되었는지 확인

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

HYPR MFA 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: HYPR MFA Logs from GCS).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 HYPR MFA를 선택합니다.

  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다(예:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

  9. 다음을 클릭합니다.

  10. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://hypr-mfa-logs/hypr-events/
      
      • 다음과 같이 바꿉니다.
        • hypr-mfa-logs: GCS 버킷 이름입니다.
        • hypr-events: 로그가 저장되는 선택적 접두사/폴더 경로입니다 (루트의 경우 비워 둠).
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.

  11. 다음을 클릭합니다.

  12. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름 (예: hypr-mfa-logs)을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 논리
extensions.auth.type 인증 유형 (예: SSO, MFA)
metadata.event_type 이벤트 유형 (예: USER_LOGIN, NETWORK_CONNECTION)
EVENTNAME metadata.product_event_type 제품별 이벤트 유형
ID metadata.product_log_id 제품별 로그 ID
USERAGENT network.http.parsed_user_agent 파싱된 HTTP 사용자 에이전트
USERAGENT network.http.user_agent HTTP 사용자 에이전트 문자열
SESSIONID network.session_id 세션 ID
DEVICEMODEL principal.asset.hardware.model 애셋의 하드웨어 모델
COMPANION,MACHINEDOMAIN principal.asset.hostname 애셋의 호스트 이름
REMOTEIP principal.asset.ip 애셋의 IP 주소
DEVICEID principal.asset_id 저작물의 고유 식별자
COMPANION,MACHINEDOMAIN principal.hostname 주 구성원과 연결된 호스트 이름
REMOTEIP principal.ip 주 구성원과 연결된 IP 주소
DEVICEOS principal.platform 플랫폼 (예: Windows, Linux)
DEVICEOSVERSION principal.platform_version 플랫폼 버전
ISSUCCESSFUL security_result.action 보안 시스템에서 취한 조치 (예: 허용, 차단)
메시지 security_result.description 보안 결과 설명
MACHINEUSERNAME target.user.user_display_name 사용자의 표시 이름
FIDOUSER target.user.userid 사용자 ID
metadata.product_name 제품 이름
metadata.vendor_name 공급업체/회사 이름

도움이 더 필요하신가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.