Duo 인증 로그 수집

다음에서 지원:

이 문서에서는 Duo 인증 로그를 Google Security Operations에 수집하는 방법을 설명합니다. 파서는 JSON 형식 메시지에서 로그를 추출합니다. 원시 로그 데이터를 통합 데이터 모델 (UDM)로 변환하여 사용자, 기기, 애플리케이션, 위치, 인증 세부정보와 같은 필드를 매핑하는 동시에 다양한 인증 요소와 결과를 처리하여 보안 이벤트를 분류합니다. 파서는 데이터 품질과 일관성을 보장하기 위해 데이터 정리, 유형 변환, 오류 처리도 실행합니다.

다음 두 가지 수집 방법 중에서 선택하세요.

  • 옵션 1: 서드 파티 API를 사용한 직접 수집
  • 옵션 2: Cloud Run 함수 및 Google Cloud Storage를 사용하여 로그 수집

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Duo 관리 패널에 대한 권한 있는 액세스 (관리 API 애플리케이션을 만들려면 소유자 역할 필요)
  • 옵션 2를 사용하는 경우 GCP에 대한 액세스 권한

옵션 1: 서드 파티 API를 사용하여 Duo 인증 로그 수집

Duo 기본 요건 (API 사용자 인증 정보) 수집

  1. 소유자, 관리자 또는 애플리케이션 관리자 역할이 있는 관리자로 Duo 관리 패널에 로그인합니다.
  2. 애플리케이션 > 애플리케이션 카탈로그로 이동합니다.
  3. 카탈로그에서 Admin API 항목을 찾습니다.
  4. + 추가를 클릭하여 애플리케이션을 만듭니다.
  5. 다음 세부정보를 복사하여 안전한 위치에 저장합니다.
    • 통합 키
    • 보안 비밀 키
    • API 호스트 이름 (예: api-XXXXXXXX.duosecurity.com)
  6. 권한 섹션으로 이동합니다.
  7. 읽기 로그 권한 부여를 제외한 모든 권한 옵션을 선택 해제합니다.
  8. 변경사항 저장을 클릭합니다.

Duo 인증 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. + 새 피드 추가를 클릭합니다.
  3. 피드 이름 필드에 피드 이름을 입력합니다(예: Duo Authentication Logs).
  4. 소스 유형으로 서드 파티 API를 선택합니다.
  5. 로그 유형으로 Duo Auth를 선택합니다.
  6. 다음을 클릭합니다.
  7. 다음 입력 파라미터의 값을 지정합니다.
    • 사용자 이름: Duo의 통합 키를 입력합니다.
    • Secret: Duo의 보안 비밀 키를 입력합니다.
    • API 호스트 이름: API 호스트 이름을 입력합니다 (예: api-XXXXXXXX.duosecurity.com).
    • 애셋 네임스페이스: 선택사항입니다. 애셋 네임스페이스입니다.
    • 수집 라벨: 선택사항입니다. 이 피드의 이벤트에 적용할 라벨입니다.
  8. 다음을 클릭합니다.
  9. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

옵션 2: Google Cloud Storage를 사용하여 Duo 인증 로그 수집

Duo Admin API 사용자 인증 정보 수집

  1. Duo 관리 패널에 로그인합니다.
  2. 애플리케이션 > 애플리케이션 카탈로그로 이동합니다.
  3. 애플리케이션 카탈로그에서 Admin API를 찾습니다.
  4. + 추가를 클릭하여 Admin API 애플리케이션을 추가합니다.
  5. 다음 값을 복사하여 저장합니다.
    • 통합 키 (ikey)
    • 보안 비밀 키 (skey)
    • API 호스트 이름 (예: api-XXXXXXXX.duosecurity.com)
  6. 권한에서 읽기 로그 권한 부여를 사용 설정합니다.
  7. 변경사항 저장을 클릭합니다.

Google Cloud Storage 버킷 만들기

  1. Google Cloud Console로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: duo-auth-logs)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: duo-auth-collector-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect Duo authentication logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

이러한 역할은 다음 작업에 필요합니다.

  • 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
  • Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
  • Cloud Functions 호출자: 함수 호출 허용

GCS 버킷에 대한 IAM 권한 부여

GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: duo-auth-collector-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: duo-auth-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Duo Admin API에서 로그를 가져오고 이를 GCS에 기록합니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 duo-auth-collector
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    1. + 트리거 추가를 클릭합니다.
    2. Cloud Pub/Sub를 선택합니다.
    3. Cloud Pub/Sub 주제 선택에서 duo-auth-trigger 주제를 선택합니다.
    4. 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    1. 인증 필요를 선택합니다.
    2. ID 및 액세스 관리 (IAM)를 확인합니다.
  7. 아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.

  8. 보안 탭으로 이동합니다.

    • 서비스 계정: 서비스 계정 duo-auth-collector-sa를 선택합니다.
  9. 컨테이너 탭으로 이동합니다.

    1. 변수 및 보안 비밀을 클릭합니다.
    2. 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
    변수 이름 예시 값
    GCS_BUCKET duo-auth-logs
    GCS_PREFIX duo/auth/
    STATE_KEY duo/auth/state.json
    DUO_IKEY DIXYZ...
    DUO_SKEY ****************
    DUO_API_HOSTNAME api-XXXXXXXX.duosecurity.com
    LIMIT 500
  10. 변수 및 보안 비밀 탭에서 요청까지 아래로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  11. 컨테이너설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
    • 완료를 클릭합니다.
  12. 실행 환경으로 스크롤합니다.

    • 기본을 선택합니다 (권장).
  13. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  14. 만들기를 클릭합니다.

  15. 서비스가 생성될 때까지 기다립니다 (1~2분).

  16. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 함수 진입점main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:
    #!/usr/bin/env python3
    # Cloud Run Function: Pull Duo Admin API v2 Authentication Logs to GCS (raw JSON pages)
    # Notes:
    # - Duo v2 requires mintime/maxtime in *milliseconds* (13-digit epoch).
    # - Pagination via metadata.next_offset ("<millis>,<txid>").
    # - We save state (mintime_ms) in ms to resume next run without gaps.
    
    import functions_framework
    from google.cloud import storage
    import os
    import json
    import time
    import hmac
    import hashlib
    import base64
    import email.utils
    import urllib.parse
    from urllib.request import Request, urlopen
    from urllib.error import HTTPError, URLError
    
    DUO_IKEY = os.environ["DUO_IKEY"]
    DUO_SKEY = os.environ["DUO_SKEY"]
    DUO_API_HOSTNAME = os.environ["DUO_API_HOSTNAME"].strip()
    GCS_BUCKET = os.environ["GCS_BUCKET"]
    GCS_PREFIX = os.environ.get("GCS_PREFIX", "duo/auth/").strip("/")
    STATE_KEY = os.environ.get("STATE_KEY", "duo/auth/state.json")
    LIMIT = min(int(os.environ.get("LIMIT", "500")), 1000)  # default 500, max 1000
    
    storage_client = storage.Client()
    
    def _canon_params(params: dict) -> str:
        parts = []
        for k in sorted(params.keys()):
            v = params[k]
            if v is None:
                continue
            parts.append(f"{urllib.parse.quote(str(k), '~')}={urllib.parse.quote(str(v), '~')}")
        return "&".join(parts)
    
    def _sign(method: str, host: str, path: str, params: dict) -> dict:
        now = email.utils.formatdate()
        canon = "\n".join([
            now,
            method.upper(),
            host.lower(),
            path,
            _canon_params(params)
        ])
        sig = hmac.new(
            DUO_SKEY.encode("utf-8"),
            canon.encode("utf-8"),
            hashlib.sha1
        ).hexdigest()
        auth = base64.b64encode(f"{DUO_IKEY}:{sig}".encode()).decode()
        return {
            "Date": now,
            "Authorization": f"Basic {auth}"
        }
    
    def _http(method: str, path: str, params: dict, timeout: int = 60, max_retries: int = 5) -> dict:
        host = DUO_API_HOSTNAME
        assert host.startswith("api-") and host.endswith(".duosecurity.com"), \
            "DUO_API_HOSTNAME must be like api-XXXXXXXX.duosecurity.com"
    
        qs = _canon_params(params)
        url = f"https://{host}{path}" + (f"?{qs}" if qs else "")
    
        attempt, backoff = 0, 1.0
        while True:
            req = Request(url, method=method.upper())
            req.add_header("Accept", "application/json")
            for k, v in _sign(method, host, path, params).items():
                req.add_header(k, v)
    
            try:
                with urlopen(req, timeout=timeout) as r:
                    return json.loads(r.read().decode("utf-8"))
            except HTTPError as e:
                if (e.code == 429 or 500 <= e.code <= 599) and attempt < max_retries:
                    time.sleep(backoff)
                    attempt += 1
                    backoff *= 2
                    continue
                raise
            except URLError:
                if attempt < max_retries:
                    time.sleep(backoff)
                    attempt += 1
                    backoff *= 2
                    continue
                raise
    
    def _read_state_ms() -> int | None:
        try:
            bucket = storage_client.bucket(GCS_BUCKET)
            blob = bucket.blob(STATE_KEY)
            if blob.exists():
                state_data = blob.download_as_text()
                val = json.loads(state_data).get("mintime")
                if val is None:
                    return None
                # Backward safety: if seconds were stored, convert to ms
                return int(val) * 1000 if len(str(int(val))) <= 10 else int(val)
        except Exception:
            return None
    
    def _write_state_ms(mintime_ms: int):
        bucket = storage_client.bucket(GCS_BUCKET)
        blob = bucket.blob(STATE_KEY)
        body = json.dumps({"mintime": int(mintime_ms)}).encode("utf-8")
        blob.upload_from_string(body, content_type="application/json")
    
    def _write_page(payload: dict, when_epoch_s: int, page: int) -> str:
        bucket = storage_client.bucket(GCS_BUCKET)
        key = f"{GCS_PREFIX}/{time.strftime('%Y/%m/%d', time.gmtime(when_epoch_s))}/duo-auth-{page:05d}.json"
        blob = bucket.blob(key)
        blob.upload_from_string(
            json.dumps(payload, separators=(",", ":")).encode("utf-8"),
            content_type="application/json"
        )
        return key
    
    def fetch_and_store():
        now_s = int(time.time())
        # Duo recommends a ~2-minute delay buffer; use maxtime = now - 120 seconds (in ms)
        maxtime_ms = (now_s - 120) * 1000
        mintime_ms = _read_state_ms() or (maxtime_ms - 3600 * 1000)  # 1 hour on first run
    
        page = 0
        total = 0
        next_offset = None
    
        while True:
            params = {
                "mintime": mintime_ms,
                "maxtime": maxtime_ms,
                "limit": LIMIT
            }
            if next_offset:
                params["next_offset"] = next_offset
    
            data = _http("GET", "/admin/v2/logs/authentication", params)
            _write_page(data, maxtime_ms // 1000, page)
            page += 1
    
            resp = data.get("response")
            items = resp if isinstance(resp, list) else []
            total += len(items)
    
            meta = data.get("metadata") or {}
            next_offset = meta.get("next_offset")
            if not next_offset:
                break
    
        # Advance window to maxtime_ms for next run
        _write_state_ms(maxtime_ms)
    
        return {
            "ok": True,
            "pages": page,
            "events": total,
            "next_mintime_ms": maxtime_ms
        }
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch Duo authentication logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
        try:
            result = fetch_and_store()
            print(f"Successfully processed {result['events']} events in {result['pages']} pages")
            print(f"Next mintime_ms: {result['next_mintime_ms']}")
        except Exception as e:
            print(f"Error processing logs: {str(e)}")
            raise
    
    • 두 번째 파일: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 duo-auth-collector-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 duo-auth-trigger 주제를 선택합니다.
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

  • 로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

    빈도 크론 표현식 사용 사례
    5분마다 */5 * * * * 대용량, 저지연
    15분마다 */15 * * * * 검색량 보통
    1시간마다 0 * * * * 일반(권장)
    6시간마다 0 */6 * * * 양이 적은 일괄 처리
    매일 0 0 * * * 이전 데이터 수집

스케줄러 작업 테스트

  1. Cloud Scheduler 콘솔에서 작업을 찾습니다.
  2. 강제 실행을 클릭하여 수동으로 트리거합니다.
  3. 몇 초간 기다린 후 Cloud Run > 서비스 > duo-auth-collector > 로그로 이동합니다.
  4. 함수가 성공적으로 실행되었는지 확인합니다.
  5. GCS 버킷을 확인하여 로그가 작성되었는지 확인합니다.

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

서비스 계정 이메일 가져오기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Duo Authentication Logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Duo Auth를 선택합니다.
  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

Duo 인증 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Duo Authentication Logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Duo Auth를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://duo-auth-logs/duo/auth/
      
      • 다음과 같이 바꿉니다.

        • duo-auth-logs: GCS 버킷 이름입니다.
        • duo/auth/: 로그가 저장되는 선택적 접두사/폴더 경로입니다 (루트의 경우 비워 둠).
      • 예:

        • 루트 버킷: gs://company-logs/
        • 접두사 사용: gs://company-logs/duo-logs/
        • 하위 폴더 사용: gs://company-logs/duo/auth/
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.

  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 로직
access_device.browser target.resource.attribute.labels.value access_device.browser가 있으면 값이 UDM에 매핑됩니다.
access_device.hostname principal.hostname access_device.hostname이 있고 비어 있지 않으면 값이 UDM에 매핑됩니다. 비어 있고 event_type이 USER_CREATION이면 event_type이 USER_UNCATEGORIZED로 변경됩니다. access_device.hostname이 비어 있고 hostname 필드가 있으면 hostname 값이 사용됩니다.
access_device.ip principal.ip access_device.ip가 있고 유효한 IPv4 주소인 경우 값이 UDM에 매핑됩니다. 올바른 IPv4 주소가 아니면 키 access_device.ip를 사용하여 additional.fields에 문자열 값으로 추가됩니다.
access_device.location.city principal.location.city 값이 있으면 UDM에 매핑됩니다.
access_device.location.country principal.location.country_or_region 값이 있으면 UDM에 매핑됩니다.
access_device.location.state principal.location.state 값이 있으면 UDM에 매핑됩니다.
access_device.os principal.platform 값이 있는 경우 해당 UDM 값 (MAC, WINDOWS, LINUX)으로 변환됩니다.
access_device.os_version principal.platform_version 값이 있으면 UDM에 매핑됩니다.
application.key target.resource.id 값이 있으면 UDM에 매핑됩니다.
application.name target.application 값이 있으면 UDM에 매핑됩니다.
auth_device.ip target.ip 값이 있고 'None'이 아닌 경우 UDM에 매핑됩니다.
auth_device.location.city target.location.city 값이 있으면 UDM에 매핑됩니다.
auth_device.location.country target.location.country_or_region 값이 있으면 UDM에 매핑됩니다.
auth_device.location.state target.location.state 값이 있으면 UDM에 매핑됩니다.
auth_device.name target.hostname 또는 target.user.phone_numbers auth_device.name이 있고 정규화 후 전화번호인 경우 target.user.phone_numbers에 추가됩니다. 그렇지 않으면 target.hostname에 매핑됩니다.
client_ip target.ip 값이 있고 'None'이 아닌 경우 UDM에 매핑됩니다.
client_section target.resource.attribute.labels.value client_section이 있으면 그 값이 키 client_section으로 UDM에 매핑됩니다.
dn target.user.userid dn이 있고 user.name과 username이 없는 경우 userid는 grok을 사용하여 dn 필드에서 추출되고 UDM에 매핑됩니다. event_type이 USER_LOGIN으로 설정됩니다.
event_type metadata.product_event_type 및 metadata.event_type 이 값은 metadata.product_event_type에 매핑됩니다. 또한 metadata.event_type을 결정하는 데도 사용됩니다. 'authentication'은 USER_LOGIN이 되고 'enrollment'는 USER_CREATION이 되며, 비어 있거나 둘 다 아닌 경우 GENERIC_EVENT가 됩니다.
요소 extensions.auth.mechanism 및 extensions.auth.auth_details 이 값은 해당 UDM auth.mechanism 값 (HARDWARE_KEY, REMOTE_INTERACTIVE, LOCAL, OTP)으로 변환됩니다. 원래 값은 extensions.auth.auth_details에도 매핑됩니다.
hostname principal.hostname 값이 있고 access_device.hostname이 비어 있으면 UDM에 매핑됩니다.
log_format target.resource.attribute.labels.value log_format이 있으면 값이 log_format 키를 사용하여 UDM에 매핑됩니다.
loglevel._classuuid_ target.resource.attribute.labels.value loglevel._classuuid_가 있으면 값이 키가 class_uuid인 UDM에 매핑됩니다.
log_level.name target.resource.attribute.labels.value AND security_result.severity log_level.name이 있으면 값이 키 이름과 함께 UDM에 매핑됩니다. 값이 'info'이면 security_result.severity가 INFORMATIONAL로 설정됩니다.
log_logger.unpersistable target.resource.attribute.labels.value log_logger.unpersistable이 있으면 값이 키 unpersistable이 있는 UDM에 매핑됩니다.
log_namespace target.resource.attribute.labels.value log_namespace가 있으면 그 값이 키 log_namespace를 사용하여 UDM에 매핑됩니다.
log_source target.resource.attribute.labels.value log_source가 있으면 값이 log_source 키를 사용하여 UDM에 매핑됩니다.
msg security_result.summary 이 값이 있고 이유가 비어 있으면 UDM에 매핑됩니다.
reason security_result.summary 값이 있으면 UDM에 매핑됩니다.
결과 security_result.action_details 및 security_result.action 값이 있는 경우 security_result.action_details에 매핑됩니다. 'success' 또는 'SUCCESS'는 security_result.action ALLOW로 변환되고, 그렇지 않으면 BLOCK으로 변환됩니다.
server_section target.resource.attribute.labels.value server_section이 있으면 값이 키 server_section으로 UDM에 매핑됩니다.
server_section_ikey target.resource.attribute.labels.value server_section_ikey가 있으면 값이 키 server_section_ikey가 있는 UDM에 매핑됩니다.
상태 security_result.action_details 및 security_result.action 값이 있는 경우 security_result.action_details에 매핑됩니다. '허용'은 security_result.action ALLOW로 변환되고 '거부'는 BLOCK으로 변환됩니다.
타임스탬프 metadata.event_timestamp 및 event.timestamp 이 값은 타임스탬프로 변환되어 metadata.event_timestamp와 event.timestamp 모두에 매핑됩니다.
txid metadata.product_log_id 및 network.session_id 이 값은 metadata.product_log_id와 network.session_id 모두에 매핑됩니다.
user.groups target.user.group_identifiers 배열의 모든 값이 target.user.group_identifiers에 추가됩니다.
user.key target.user.product_object_id 값이 있으면 UDM에 매핑됩니다.
user.name target.user.userid 값이 있으면 UDM에 매핑됩니다.
사용자 이름 target.user.userid 값이 있고 user.name이 없는 경우 값이 UDM에 매핑됩니다. event_type이 USER_LOGIN으로 설정됩니다.
(파서 로직) metadata.vendor_name 항상 'DUO_SECURITY'로 설정됩니다.
(파서 로직) metadata.product_name 항상 'MULTI-FACTOR_AUTHENTICATION'으로 설정됩니다.
(파서 로직) metadata.log_type 원시 로그의 최상위 log_type 필드에서 가져옵니다.
(파서 로직) extensions.auth.type 항상 'SSO'로 설정됩니다.

도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.