Delinea 싱글 사인온 (SSO) 로그 수집

다음에서 지원:

이 문서에서는 Google Cloud Storage를 사용하여 Delinea (이전 Centrify) SSO (Single Sign-On) 로그를 Google Security Operations로 수집하는 방법을 설명합니다. 파서는 JSON 형식과 syslog 형식을 모두 처리하여 로그를 추출합니다. 키-값 쌍, 타임스탬프, 기타 관련 필드를 파싱하여 UDM 모델에 매핑하며, 로그인 실패, 사용자 에이전트, 심각도 수준, 인증 메커니즘, 다양한 이벤트 유형을 처리하는 특정 로직이 있습니다. 실패 이벤트의 대상 이메일 주소에 대해 NormalizedUser보다 FailUserName에 우선순위를 부여합니다.

시작하기 전에

다음 기본 요건이 충족되었는지 확인합니다.

  • Google SecOps 인스턴스
  • Cloud Storage API가 사용 설정된 GCP 프로젝트
  • GCS 버킷을 만들고 관리할 수 있는 권한
  • GCS 버킷의 IAM 정책을 관리할 수 있는 권한
  • Cloud Run 함수, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
  • Delinea (Centrify) SSO 테넌트에 대한 액세스 권한

Delinea (Centrify) SSO 사용자 인증 정보 수집

OAuth2 클라이언트 애플리케이션 만들기

  1. Delinea 관리 포털에 로그인합니다.
  2. > 웹 앱 추가로 이동합니다.
  3. 맞춤 탭을 클릭합니다.
  4. OAuth2 클라이언트를 검색하고 추가를 클릭합니다.
  5. 웹 앱 추가 대화상자에서 를 클릭합니다.
  6. 웹 앱 추가 대화상자에서 닫기를 클릭합니다.
  7. 애플리케이션 구성 페이지에서 다음을 구성합니다.
    • 설정 탭:
      • 애플리케이션 ID: 고유 식별자 (예: secops-oauth-client)를 입력합니다.
      • 애플리케이션 이름: 설명이 포함된 이름을 입력합니다 (예: SecOps Data Export).
      • 애플리케이션 설명: 설명을 입력합니다 (예: OAuth client for exporting audit events to SecOps).
    • 일반 사용 섹션:
      • 클라이언트 ID 유형: 컨피덴셜을 선택합니다.
      • 발급된 클라이언트 ID: 이 값을 복사하여 저장합니다.
      • 발급된 클라이언트 보안 비밀번호: 이 값을 복사하여 저장합니다.
    • 토큰 탭:
      • 인증 방법: 클라이언트 인증을 선택합니다.
      • 토큰 유형: JwtRS256을 선택합니다.
    • 범위 탭:
      • 설명 Query API Access이 있는 범위 redrock/query를 추가합니다.
  8. 저장을 클릭하여 OAuth 클라이언트를 만듭니다.
  9. 다음 세부정보를 복사하여 안전한 위치에 저장합니다.
    • 테넌트 URL: Centrify 테넌트 URL (예: https://yourtenant.my.centrify.com)입니다.
    • 클라이언트 ID: 7단계에서 가져옵니다.
    • 클라이언트 보안 비밀번호: 7단계에서 가져옵니다.
    • OAuth 애플리케이션 ID: 애플리케이션 구성에서 가져옵니다.

권한 확인

OAuth 클라이언트에 필요한 권한이 있는지 확인하려면 다음 단계를 따르세요.

  1. Delinea 관리 포털에 로그인합니다.
  2. 설정 (⚙️) > 리소스 > 역할로 이동합니다.
  3. OAuth 클라이언트에 할당된 역할에 보고서: 감사 이벤트: 보기 권한이 포함되어 있는지 확인합니다.
  4. 권한이 누락된 경우 Delinea 관리자에게 문의하여 필요한 권한을 부여받으세요.

API 액세스 테스트

  • 통합을 진행하기 전에 사용자 인증 정보를 테스트하세요.

    # Replace with your actual credentials
    TENANT_URL="https://yourtenant.my.centrify.com"
    CLIENT_ID="your-client-id"
    CLIENT_SECRET="your-client-secret"
    OAUTH_APP_ID="your-oauth-application-id"
    
    # Get OAuth token
    TOKEN=$(curl -s -X POST "${TENANT_URL}/oauth2/token/${OAUTH_APP_ID}" \
      -H "Authorization: Basic $(echo -n "${CLIENT_ID}:${CLIENT_SECRET}" | base64)" \
      -H "X-CENTRIFY-NATIVE-CLIENT: True" \
      -H "Content-Type: application/x-www-form-urlencoded" \
      -d "grant_type=client_credentials&scope=redrock/query" | jq -r '.access_token')
    
    # Test query API access
    curl -v -X POST "${TENANT_URL}/Redrock/query" \
      -H "Authorization: Bearer ${TOKEN}" \
      -H "X-CENTRIFY-NATIVE-CLIENT: True" \
      -H "Content-Type: application/json" \
      -d '{"Script":"Select * from Event where WhenOccurred > datefunc('"'"'now'"'"', '"'"'-1'"'"') ORDER BY WhenOccurred ASC","args":{"PageNumber":1,"PageSize":10,"Limit":10,"Caching":-1}}'
    

성공하면 감사 이벤트가 포함된 JSON 응답이 표시됩니다. 401 또는 403 오류가 발생하면 사용자 인증 정보와 권한을 확인하세요.

Google Cloud Storage 버킷 만들기

  1. Google Cloud Console로 이동합니다.
  2. 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
  3. 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
  4. 버킷 만들기를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.

    설정
    버킷 이름 지정 전역적으로 고유한 이름 (예: delinea-centrify-logs-bucket)을 입력합니다.
    위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전)
    위치 위치를 선택합니다 (예: us-central1).
    스토리지 클래스 Standard (자주 액세스하는 로그에 권장)
    액세스 제어 균일 (권장)
    보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정
  6. 만들기를 클릭합니다.

Cloud Run 함수의 서비스 계정 만들기

Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.

서비스 계정 만들기

  1. GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
  2. 서비스 계정 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 서비스 계정 이름: delinea-sso-collector-sa을 입력합니다.
    • 서비스 계정 설명: Service account for Cloud Run function to collect Delinea SSO logs을 입력합니다.
  4. 만들고 계속하기를 클릭합니다.
  5. 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
    1. 역할 선택을 클릭합니다.
    2. 스토리지 객체 관리자를 검색하여 선택합니다.
    3. + 다른 역할 추가를 클릭합니다.
    4. Cloud Run 호출자를 검색하여 선택합니다.
    5. + 다른 역할 추가를 클릭합니다.
    6. Cloud Functions 호출자를 검색하여 선택합니다.
  6. 계속을 클릭합니다.
  7. 완료를 클릭합니다.

이러한 역할은 다음 작업에 필요합니다.

  • 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
  • Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
  • Cloud Functions 호출자: 함수 호출 허용

GCS 버킷에 대한 IAM 권한 부여

GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름 (예: delinea-centrify-logs-bucket)을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: 서비스 계정 이메일 (예: delinea-sso-collector-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다.
    • 역할 할당: 스토리지 객체 관리자를 선택합니다.
  6. 저장을 클릭합니다.

게시/구독 주제 만들기

Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.

  1. GCP Console에서 Pub/Sub > 주제로 이동합니다.
  2. 주제 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.
    • 주제 ID: delinea-sso-logs-trigger를 입력합니다.
    • 다른 설정은 기본값으로 둡니다.
  4. 만들기를 클릭합니다.

로그를 수집하는 Cloud Run 함수 만들기

Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Delinea SSO API에서 로그를 가져오고 GCS에 기록합니다.

  1. GCP 콘솔에서 Cloud Run으로 이동합니다.
  2. 서비스 만들기를 클릭합니다.
  3. 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
  4. 구성 섹션에서 다음 구성 세부정보를 제공합니다.

    설정
    서비스 이름 delinea-sso-log-export
    리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).
    런타임 Python 3.12 이상 선택
  5. 트리거 (선택사항) 섹션에서 다음을 수행합니다.

    1. + 트리거 추가를 클릭합니다.
    2. Cloud Pub/Sub를 선택합니다.
    3. Cloud Pub/Sub 주제 선택에서 Pub/Sub 주제 delinea-sso-logs-trigger을 선택합니다.
    4. 저장을 클릭합니다.
  6. 인증 섹션에서 다음을 구성합니다.

    1. 인증 필요를 선택합니다.
    2. ID 및 액세스 관리 (IAM)를 확인합니다.
  7. 아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.

  8. 보안 탭으로 이동합니다.

    • 서비스 계정: 서비스 계정 delinea-sso-collector-sa를 선택합니다.
  9. 컨테이너 탭으로 이동합니다.

    1. 변수 및 보안 비밀을 클릭합니다.
    2. 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
    변수 이름 예시 값 설명
    GCS_BUCKET delinea-centrify-logs-bucket GCS 버킷 이름
    GCS_PREFIX centrify-sso-logs 로그 파일의 접두사
    STATE_KEY centrify-sso-logs/state.json 상태 파일 경로
    TENANT_URL https://yourtenant.my.centrify.com Delinea 테넌트 URL
    CLIENT_ID your-client-id OAuth 클라이언트 ID
    CLIENT_SECRET your-client-secret OAuth 클라이언트 비밀번호
    OAUTH_APP_ID your-oauth-application-id OAuth 애플리케이션 ID
    PAGE_SIZE 1000 페이지당 레코드 수
    MAX_PAGES 10 가져올 최대 페이지 수
  10. 변수 및 보안 비밀 섹션에서 요청까지 아래로 스크롤합니다.

    • 요청 제한 시간: 600초 (10분)를 입력합니다.
  11. 설정 탭으로 이동합니다.

    • 리소스 섹션에서 다음을 수행합니다.
      • 메모리: 512MiB 이상을 선택합니다.
      • CPU: 1을 선택합니다.
  12. 버전 확장 섹션에서 다음을 수행합니다.

    • 최소 인스턴스 수: 0를 입력합니다.
    • 최대 인스턴스 수: 100을 입력합니다 (또는 예상 부하에 따라 조정).
  13. 만들기를 클릭합니다.

  14. 서비스가 생성될 때까지 기다립니다 (1~2분).

  15. 서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.

함수 코드 추가

  1. 함수 진입점main을 입력합니다.
  2. 인라인 코드 편집기에서 다음 두 파일을 만듭니다.

    • 첫 번째 파일: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    import base64
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch Delinea Centrify SSO audit events and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        # Get environment variables
        bucket_name = os.environ.get('GCS_BUCKET')
        prefix = os.environ.get('GCS_PREFIX', 'centrify-sso-logs')
        state_key = os.environ.get('STATE_KEY', 'centrify-sso-logs/state.json')
    
        # Centrify API credentials
        tenant_url = os.environ.get('TENANT_URL')
        client_id = os.environ.get('CLIENT_ID')
        client_secret = os.environ.get('CLIENT_SECRET')
        oauth_app_id = os.environ.get('OAUTH_APP_ID')
    
        # Optional parameters
        page_size = int(os.environ.get('PAGE_SIZE', '1000'))
        max_pages = int(os.environ.get('MAX_PAGES', '10'))
    
        if not all([bucket_name, tenant_url, client_id, client_secret, oauth_app_id]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(bucket_name)
    
            # Load state (last processed timestamp)
            state = load_state(bucket, state_key)
            last_timestamp = state.get('last_timestamp')
    
            print(f'Processing logs since {last_timestamp if last_timestamp else "24 hours ago"}')
    
            # Get OAuth access token
            access_token = get_oauth_token(tenant_url, client_id, client_secret, oauth_app_id)
    
            # Fetch audit events
            events = fetch_audit_events(tenant_url, access_token, last_timestamp, page_size, max_pages)
    
            if events:
                # Write events to GCS
                current_timestamp = datetime.now(timezone.utc)
                blob_name = f"{prefix}/centrify-sso-events-{current_timestamp.strftime('%Y%m%d_%H%M%S')}.json"
                blob = bucket.blob(blob_name)
    
                # Convert to JSONL format (one JSON object per line)
                jsonl_content = '\n'.join([json.dumps(event, default=str) for event in events])
                blob.upload_from_string(jsonl_content, content_type='application/x-ndjson')
    
                print(f'Wrote {len(events)} events to {blob_name}')
    
                # Update state with latest timestamp
                latest_timestamp = get_latest_event_timestamp(events)
                save_state(bucket, state_key, {'last_timestamp': latest_timestamp, 'updated_at': current_timestamp.isoformat() + 'Z'})
    
                print(f'Successfully processed {len(events)} events')
            else:
                print('No new events found')
    
        except Exception as e:
            print(f'Error processing Centrify SSO logs: {str(e)}')
            raise
    
    def get_oauth_token(tenant_url, client_id, client_secret, oauth_app_id):
        """Get OAuth access token using client credentials flow."""
        credentials = f"{client_id}:{client_secret}"
        basic_auth = base64.b64encode(credentials.encode('utf-8')).decode('utf-8')
    
        token_url = f"{tenant_url}/oauth2/token/{oauth_app_id}"
        headers = {
            'Authorization': f'Basic {basic_auth}',
            'X-CENTRIFY-NATIVE-CLIENT': 'True',
            'Content-Type': 'application/x-www-form-urlencoded'
        }
    
        data = {
            'grant_type': 'client_credentials',
            'scope': 'redrock/query'
        }
    
        response = http.request('POST', token_url, headers=headers, fields=data)
    
        if response.status != 200:
            raise Exception(f"OAuth token request failed: {response.status} {response.data.decode('utf-8')}")
    
        token_data = json.loads(response.data.decode('utf-8'))
        return token_data['access_token']
    
    def fetch_audit_events(tenant_url, access_token, last_timestamp, page_size, max_pages):
        """Fetch audit events from Centrify using the Redrock/query API with proper pagination."""
        query_url = f"{tenant_url}/Redrock/query"
        headers = {
            'Authorization': f'Bearer {access_token}',
            'X-CENTRIFY-NATIVE-CLIENT': 'True',
            'Content-Type': 'application/json'
        }
    
        # Build SQL query with timestamp filter
        if last_timestamp:
            sql_query = f"Select * from Event where WhenOccurred > '{last_timestamp}' ORDER BY WhenOccurred ASC"
        else:
            # First run - get events from last 24 hours
            sql_query = "Select * from Event where WhenOccurred > datefunc('now', '-1') ORDER BY WhenOccurred ASC"
    
        all_events = []
        page_num = 1
        backoff = 1.0
    
        while page_num <= max_pages:
            payload = {
                "Script": sql_query,
                "args": {
                    "PageNumber": page_num,
                    "PageSize": page_size,
                    "Limit": page_size * max_pages,
                    "Caching": -1
                }
            }
    
            try:
                response = http.request('POST', query_url, headers=headers, body=json.dumps(payload))
    
                # Handle rate limiting with exponential backoff
                if response.status == 429:
                    retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                    print(f"Rate limited (429). Retrying after {retry_after}s...")
                    time.sleep(retry_after)
                    backoff = min(backoff * 2, 30.0)
                    continue
    
                backoff = 1.0
    
                if response.status != 200:
                    raise Exception(f"API query failed: {response.status} {response.data.decode('utf-8')}")
    
                response_data = json.loads(response.data.decode('utf-8'))
    
                if not response_data.get('success', False):
                    raise Exception(f"API query failed: {response_data.get('Message', 'Unknown error')}")
    
                # Parse the response
                result = response_data.get('Result', {})
                columns = {col['Name']: i for i, col in enumerate(result.get('Columns', []))}
                raw_results = result.get('Results', [])
    
                if not raw_results:
                    print(f"No more results on page {page_num}")
                    break
    
                print(f"Page {page_num}: Retrieved {len(raw_results)} events")
    
                for raw_event in raw_results:
                    event = {}
                    row_data = raw_event.get('Row', {})
    
                    # Map column names to values
                    for col_name, col_index in columns.items():
                        if col_name in row_data and row_data[col_name] is not None:
                            event[col_name] = row_data[col_name]
    
                    # Add metadata
                    event['_source'] = 'centrify_sso'
                    event['_collected_at'] = datetime.now(timezone.utc).isoformat() + 'Z'
    
                    all_events.append(event)
    
                # Check if we've reached the end
                if len(raw_results) < page_size:
                    print(f"Reached last page (page {page_num} returned {len(raw_results)} < {page_size})")
                    break
    
                page_num += 1
    
            except Exception as e:
                print(f"Error fetching page {page_num}: {e}")
                raise
    
        print(f"Retrieved {len(all_events)} total events from {page_num} pages")
        return all_events
    
    def get_latest_event_timestamp(events):
        """Get the latest timestamp from the events for state tracking."""
        if not events:
            return datetime.now(timezone.utc).isoformat() + 'Z'
    
        latest = None
        for event in events:
            when_occurred = event.get('WhenOccurred')
            if when_occurred:
                if latest is None or when_occurred > latest:
                    latest = when_occurred
    
        return latest or datetime.now(timezone.utc).isoformat() + 'Z'
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f'Warning: Could not load state: {str(e)}')
        return {}
    
    def save_state(bucket, key, state):
        """Save state to GCS."""
        try:
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state),
                content_type='application/json'
            )
        except Exception as e:
            print(f'Warning: Could not save state: {str(e)}')
    
    • 두 번째 파일: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. 배포를 클릭하여 함수를 저장하고 배포합니다.

  4. 배포가 완료될 때까지 기다립니다 (2~3분).

Cloud Scheduler 작업 만들기

Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.

  1. GCP Console에서 Cloud Scheduler로 이동합니다.
  2. 작업 만들기를 클릭합니다.
  3. 다음 구성 세부정보를 제공합니다.

    설정
    이름 delinea-sso-log-export-hourly
    리전 Cloud Run 함수와 동일한 리전 선택
    주파수 0 * * * * (매시간 정각)
    시간대 시간대 선택 (UTC 권장)
    타겟 유형 Pub/Sub
    주제 Pub/Sub 주제 delinea-sso-logs-trigger를 선택합니다.
    메일 본문 {} (빈 JSON 객체)
  4. 만들기를 클릭합니다.

일정 빈도 옵션

  • 로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.

    빈도 크론 표현식 사용 사례
    5분마다 */5 * * * * 대용량, 저지연
    15분마다 */15 * * * * 검색량 보통
    1시간마다 0 * * * * 일반(권장)
    6시간마다 0 */6 * * * 양이 적은 일괄 처리
    매일 0 0 * * * 이전 데이터 수집

통합 테스트

  1. Cloud Scheduler 콘솔에서 작업 (예: delinea-sso-log-export-hourly)을 찾습니다.
  2. 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
  3. 몇 초 동안 기다립니다.
  4. Cloud Run > 서비스로 이동합니다.
  5. 함수 이름 delinea-sso-log-export을 클릭합니다.
  6. 로그 탭을 클릭합니다.
  7. 함수가 성공적으로 실행되었는지 확인합니다. 다음을 확인하세요.

    Processing logs since YYYY-MM-DDTHH:MM:SS+00:00
    Page 1: Retrieved X events
    Wrote X events to centrify-sso-logs/centrify-sso-events_YYYYMMDD_HHMMSS.json
    Successfully processed X events
    
  8. Cloud Storage> 버킷으로 이동합니다.

  9. 버킷 이름 (예: delinea-centrify-logs-bucket)을 클릭합니다.

  10. 접두사 폴더 centrify-sso-logs/로 이동합니다.

  11. 현재 타임스탬프를 사용하여 새 .json 파일이 생성되었는지 확인합니다.

로그에 오류가 표시되면 다음 단계를 따르세요.

  • HTTP 401: 환경 변수 (CLIENT_ID, CLIENT_SECRET, OAUTH_APP_ID)에서 API 사용자 인증 정보 확인
  • HTTP 403: OAuth 클라이언트에 보고서: 감사 이벤트: 보기 권한이 있는지 확인합니다.
  • HTTP 429: 비율 제한 - 함수가 백오프를 사용하여 자동으로 재시도됩니다.
  • 환경 변수 누락: Cloud Run 함수 구성에 필요한 모든 변수가 설정되어 있는지 확인합니다.

Google SecOps 서비스 계정 가져오기

Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.

서비스 계정 이메일 가져오기

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Delinea Centrify SSO logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Centrify를 선택합니다.
  7. 서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다(예:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.

Google SecOps 서비스 계정에 IAM 권한 부여

Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.

  1. Cloud Storage> 버킷으로 이동합니다.
  2. 버킷 이름 (예: delinea-centrify-logs-bucket)을 클릭합니다.
  3. 권한 탭으로 이동합니다.
  4. 액세스 권한 부여를 클릭합니다.
  5. 다음 구성 세부정보를 제공합니다.
    • 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
    • 역할 할당: 스토리지 객체 뷰어를 선택합니다.
  6. 저장을 클릭합니다.

Delinea (Centrify) SSO 로그를 수집하도록 Google SecOps에서 피드 구성

  1. SIEM 설정> 피드로 이동합니다.
  2. 새 피드 추가를 클릭합니다.
  3. 단일 피드 구성을 클릭합니다.
  4. 피드 이름 필드에 피드 이름을 입력합니다(예: Delinea Centrify SSO logs).
  5. 소스 유형으로 Google Cloud Storage V2를 선택합니다.
  6. 로그 유형으로 Centrify를 선택합니다.
  7. 다음을 클릭합니다.
  8. 다음 입력 매개변수의 값을 지정합니다.

    • 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.

      gs://delinea-centrify-logs-bucket/centrify-sso-logs/
      
      • 다음과 같이 바꿉니다.

        • delinea-centrify-logs-bucket: GCS 버킷 이름입니다.
        • centrify-sso-logs: 로그가 저장되는 선택적 접두사/폴더 경로입니다 (루트의 경우 비워 둠).
      • 예:

        • 루트 버킷: gs://company-logs/
        • 접두사 사용: gs://company-logs/centrify-sso-logs/
        • 하위 폴더 사용: gs://company-logs/delinea/sso/
    • 소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.

      • 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
      • 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
      • 전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.

    • 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.

    • 애셋 네임스페이스: 애셋 네임스페이스입니다.

    • 수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.

  9. 다음을 클릭합니다.

  10. 확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.

UDM 매핑 테이블

로그 필드 UDM 매핑 로직
AccountID security_result.detection_fields.value 원시 로그의 AccountID 값이 키가 Account ID인 security_result.detection_fields 객체에 할당됩니다.
ApplicationName target.application 원시 로그의 ApplicationName 값이 target.application 필드에 할당됩니다.
AuthorityFQDN target.asset.network_domain 원시 로그의 AuthorityFQDN 값이 target.asset.network_domain 필드에 할당됩니다.
AuthorityID target.asset.asset_id 원시 로그의 AuthorityID 값이 'AuthorityID:'라는 접두사와 함께 target.asset.asset_id 필드에 할당됩니다.
AzDeploymentId security_result.detection_fields.value 원시 로그의 AzDeploymentId 값이 key: AzDeploymentId를 사용하여 security_result.detection_fields 객체에 할당됩니다.
AzRoleId additional.fields.value.string_value 원시 로그의 AzRoleId 값이 키가 AzRoleId인 additional.fields 객체에 할당됩니다.
AzRoleName target.user.attribute.roles.name 원시 로그의 AzRoleName 값이 target.user.attribute.roles.name 필드에 할당됩니다.
ComputerFQDN principal.asset.network_domain 원시 로그의 ComputerFQDN 값이 principal.asset.network_domain 필드에 할당됩니다.
ComputerID principal.asset.asset_id 원시 로그의 ComputerID 값이 'ComputerId:'라는 접두사와 함께 principal.asset.asset_id 필드에 할당됩니다.
ComputerName about.hostname 원시 로그의 ComputerName 값이 about.hostname 필드에 할당됩니다.
CredentialId security_result.detection_fields.value 원시 로그의 CredentialId 값이 key: Credential Id를 사용하여 security_result.detection_fields 객체에 할당됩니다.
DirectoryServiceName security_result.detection_fields.value 원시 로그의 DirectoryServiceName 값이 키가 Directory Service Name인 security_result.detection_fields 객체에 할당됩니다.
DirectoryServiceNameLocalized security_result.detection_fields.value 원시 로그의 DirectoryServiceNameLocalized 값이 키가 Directory Service Name Localized인 security_result.detection_fields 객체에 할당됩니다.
DirectoryServiceUuid security_result.detection_fields.value 원시 로그의 DirectoryServiceUuid 값이 키가 Directory Service Uuid인 security_result.detection_fields 객체에 할당됩니다.
EventMessage security_result.summary 원시 로그의 EventMessage 값이 security_result.summary 필드에 할당됩니다.
EventType metadata.product_event_type 원시 로그의 EventType 값이 metadata.product_event_type 필드에 할당됩니다. metadata.event_type을 결정하는 데도 사용됩니다.
FailReason security_result.summary 원시 로그의 FailReason 값은 있는 경우 security_result.summary 필드에 할당됩니다.
FailUserName target.user.email_addresses 원시 로그의 FailUserName 값은 있는 경우 target.user.email_addresses 필드에 할당됩니다.
FromIPAddress principal.ip 원시 로그의 FromIPAddress 값이 principal.ip 필드에 할당됩니다.
ID security_result.detection_fields.value 원시 로그의 ID 값이 키가 ID인 security_result.detection_fields 객체에 할당됩니다.
InternalTrackingID metadata.product_log_id 원시 로그의 InternalTrackingID 값이 metadata.product_log_id 필드에 할당됩니다.
JumpType additional.fields.value.string_value 원시 로그의 JumpType 값이 키가 Jump Type인 additional.fields 객체에 할당됩니다.
NormalizedUser target.user.email_addresses 원시 로그의 NormalizedUser 값이 target.user.email_addresses 필드에 할당됩니다.
OperationMode additional.fields.value.string_value 원시 로그의 OperationMode 값이 키가 '작업 모드'인 additional.fields 객체에 할당됩니다.
ProxyId security_result.detection_fields.value 원시 로그의 ProxyId 값이 키가 Proxy Id인 security_result.detection_fields 객체에 할당됩니다.
RequestUserAgent network.http.user_agent 원시 로그의 RequestUserAgent 값이 network.http.user_agent 필드에 할당됩니다.
SessionGuid network.session_id 원시 로그의 SessionGuid 값이 network.session_id 필드에 할당됩니다.
테넌트 additional.fields.value.string_value 원시 로그의 테넌트 값이 키가 Tenant인 additional.fields 객체에 할당됩니다.
ThreadType additional.fields.value.string_value 원시 로그의 ThreadType 값이 키가 'Thread Type'인 additional.fields 객체에 할당됩니다.
UserType principal.user.attribute.roles.name 원시 로그의 UserType 값이 principal.user.attribute.roles.name 필드에 할당됩니다.
WhenOccurred metadata.event_timestamp 원시 로그의 WhenOccurred 값이 파싱되어 metadata.event_timestamp 필드에 할당됩니다. 이 필드는 최상위 타임스탬프 필드도 채웁니다.
하드코딩된 값 metadata.product_name 'SSO'
하드코딩된 값 metadata.event_type EventType 필드에 따라 결정됩니다. EventType이 없거나 특정 기준과 일치하지 않으면 기본값은 STATUS_UPDATE입니다. USER_LOGIN, USER_CREATION, USER_RESOURCE_ACCESS, USER_LOGOUT 또는 USER_CHANGE_PASSWORD일 수 있습니다.
하드코딩된 값 metadata.vendor_name 'CENTRIFY_SSO'
하드코딩된 값 metadata.product_version 'SSO'
하드코딩된 값 metadata.log_type 'Centrify'
메시지 필드에서 추출됨 network.session_id 메시지 필드에 세션 ID가 포함된 경우 추출되어 사용됩니다. 그렇지 않으면 기본값은 '1'입니다.
호스트 필드에서 추출됨 principal.hostname syslog 헤더에서 가져온 호스트 필드에서 추출됩니다(사용 가능한 경우).
pid 필드에서 추출됨 principal.process.pid syslog 헤더에서 가져온 pid 필드에서 추출됩니다(사용 가능한 경우).
UserGuid 또는 메시지에서 추출 target.user.userid UserGuid가 있으면 해당 값이 사용됩니다. 그렇지 않고 메시지 필드에 사용자 ID가 포함된 경우 추출되어 사용됩니다.
Level 및 FailReason에 따라 결정됨 security_result.action Level이 'Info'인 경우 'ALLOW'로 설정하고 FailReason이 있는 경우 'BLOCK'으로 설정합니다.
FailReason에 따라 결정됨 security_result.category FailReason이 있는 경우 'AUTH_VIOLATION'으로 설정됩니다.
'레벨' 필드에 따라 결정됨 security_result.severity Level 필드에 따라 결정됩니다. '수준'이 '정보'인 경우 'INFORMATIONAL', '수준'이 '경고'인 경우 'MEDIUM', '수준'이 '오류'인 경우 'ERROR'로 설정됩니다.

도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.