Team Cymru Scout 위협 인텔리전스 로그 수집
이 문서에서는 Google Cloud Storage를 사용하여 Team Cymru Scout 위협 인텔리전스 데이터를 Google Security Operations에 수집하는 방법을 설명합니다. Team Cymru Scout는 조직이 보안 상태와 위협 인텔리전스 소비를 모니터링하는 데 도움이 되는 계정 사용량 측정항목, 쿼리 한도, 기본 쿼리 통계 등의 위협 인텔리전스 데이터를 제공합니다.
시작하기 전에
다음 기본 요건이 충족되었는지 확인합니다.
- Google SecOps 인스턴스
- Cloud Storage API가 사용 설정된 GCP 프로젝트
- GCS 버킷을 만들고 관리할 수 있는 권한
- GCS 버킷의 IAM 정책을 관리할 수 있는 권한
- Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
- Team Cymru Scout 테넌트에 대한 액세스 권한 관리
Google Cloud Storage 버킷 만들기
- Google Cloud Console로 이동합니다.
- 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
- 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
- 버킷 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 버킷 이름 지정 전역적으로 고유한 이름 (예: team-cymru-scout-ti)을 입력합니다.위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전) 위치 위치를 선택합니다 (예: us-central1).스토리지 클래스 Standard (자주 액세스하는 로그에 권장) 액세스 제어 균일 (권장) 보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정 만들기를 클릭합니다.
Team Cymru Scout API 사용자 인증 정보 수집
- Team Cymru Scout Platform에 로그인합니다.
- API 키 페이지로 이동합니다.
- 만들기 버튼을 클릭합니다.
- 필요한 경우 키에 대한 설명을 입력합니다.
- 키 만들기 버튼을 클릭하여 API 키를 생성합니다.
다음 세부정보를 복사하여 안전한 위치에 저장합니다.
- SCOUT_API_TOKEN: API 액세스 토큰
- SCOUT_BASE_URL: Scout API 기준 URL (일반적으로
https://scout.cymru.com)
API 액세스 테스트
통합을 진행하기 전에 사용자 인증 정보를 테스트하세요.
# Replace with your actual credentials SCOUT_API_TOKEN="your-api-token" SCOUT_BASE_URL="https://scout.cymru.com" # Test API access to usage endpoint curl -v --request GET \ --url "${SCOUT_BASE_URL}/api/scout/usage" \ --header "Authorization: Token ${SCOUT_API_TOKEN}"
Cloud Run 함수의 서비스 계정 만들기
Cloud Run 함수에는 GCS 버킷에 쓸 수 있는 권한이 있는 서비스 계정이 필요합니다.
서비스 계정 만들기
- GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
- 서비스 계정 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 서비스 계정 이름:
team-cymru-scout-ti-sa을 입력합니다. - 서비스 계정 설명:
Service account for Cloud Run function to collect Team Cymru Scout Threat Intelligence data을 입력합니다.
- 서비스 계정 이름:
- 만들고 계속하기를 클릭합니다.
- 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 단계를 따르세요.
- 역할 선택을 클릭합니다.
- 스토리지 객체 관리자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Run 호출자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Functions 호출자를 검색하여 선택합니다.
- 계속을 클릭합니다.
- 완료를 클릭합니다.
이러한 역할은 다음 작업에 필요합니다.
- 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
- Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
- Cloud Functions 호출자: 함수 호출 허용
GCS 버킷에 대한 IAM 권한 부여
GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.
- Cloud Storage> 버킷으로 이동합니다.
- 버킷 이름을 클릭합니다.
- 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가: 서비스 계정 이메일 (예:
team-cymru-scout-ti-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다. - 역할 할당: 스토리지 객체 관리자를 선택합니다.
- 주 구성원 추가: 서비스 계정 이메일 (예:
- 저장을 클릭합니다.
게시/구독 주제 만들기
Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.
- GCP Console에서 Pub/Sub > 주제로 이동합니다.
- 주제 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주제 ID:
team-cymru-scout-ti-trigger를 입력합니다. - 다른 설정은 기본값으로 둡니다.
- 주제 ID:
- 만들기를 클릭합니다.
위협 인텔리전스 데이터를 수집하는 Cloud Run 함수 만들기
Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Team Cymru Scout API에서 위협 인텔리전스 데이터를 가져오고 GCS에 씁니다.
- GCP 콘솔에서 Cloud Run으로 이동합니다.
- 서비스 만들기를 클릭합니다.
- 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
구성 섹션에서 다음 구성 세부정보를 제공합니다.
설정 값 서비스 이름 team-cymru-scout-ti-collector리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).런타임 Python 3.12 이상 선택 트리거 (선택사항) 섹션에서 다음을 수행합니다.
- + 트리거 추가를 클릭합니다.
- Cloud Pub/Sub를 선택합니다.
- Cloud Pub/Sub 주제 선택에서
team-cymru-scout-ti-trigger주제를 선택합니다. - 저장을 클릭합니다.
인증 섹션에서 다음을 구성합니다.
- 인증 필요를 선택합니다.
- ID 및 액세스 관리 (IAM)를 확인합니다.
아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.
보안 탭으로 이동합니다.
- 서비스 계정: 서비스 계정
team-cymru-scout-ti-sa를 선택합니다.
- 서비스 계정: 서비스 계정
컨테이너 탭으로 이동합니다.
- 변수 및 보안 비밀을 클릭합니다.
- 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
변수 이름 예시 값 GCS_BUCKETteam-cymru-scout-tiGCS_PREFIXteam-cymru/scout-ti/STATE_KEYteam-cymru/scout-ti/state.jsonSCOUT_BASE_URLhttps://scout.cymru.comSCOUT_API_TOKENyour-scout-api-tokenCOLLECTION_INTERVAL_HOURS1HTTP_TIMEOUT60HTTP_RETRIES3변수 및 보안 비밀 탭에서 요청까지 아래로 스크롤합니다.
- 요청 제한 시간:
600초 (10분)를 입력합니다.
- 요청 제한 시간:
컨테이너의 설정 탭으로 이동합니다.
- 리소스 섹션에서 다음을 수행합니다.
- 메모리: 512MiB 이상을 선택합니다.
- CPU: 1을 선택합니다.
- 완료를 클릭합니다.
- 리소스 섹션에서 다음을 수행합니다.
실행 환경까지 아래로 스크롤합니다.
- 기본을 선택합니다 (권장).
버전 확장 섹션에서 다음을 수행합니다.
- 최소 인스턴스 수:
0를 입력합니다. - 최대 인스턴스 수:
100을 입력합니다 (또는 예상 부하에 따라 조정).
- 최소 인스턴스 수:
만들기를 클릭합니다.
서비스가 생성될 때까지 기다립니다 (1~2분).
서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.
함수 코드 추가
- 함수 진입점에 main을 입력합니다.
인라인 코드 편집기에서 다음 두 파일을 만듭니다.
- 첫 번째 파일: main.py:
import functions_framework from google.cloud import storage import json import os import urllib3 from datetime import datetime, timezone import time # Initialize HTTP client http = urllib3.PoolManager() # Initialize Storage client storage_client = storage.Client() @functions_framework.cloud_event def main(cloud_event): """ Cloud Run function triggered by Pub/Sub to fetch usage data from Team Cymru Scout API and write to GCS. Args: cloud_event: CloudEvent object containing Pub/Sub message """ # Get environment variables bucket_name = os.environ.get('GCS_BUCKET') prefix = os.environ.get('GCS_PREFIX', 'team-cymru/scout-ti/') state_key = os.environ.get('STATE_KEY', 'team-cymru/scout-ti/state.json') collection_interval_hours = int(os.environ.get('COLLECTION_INTERVAL_HOURS', '1')) http_timeout = int(os.environ.get('HTTP_TIMEOUT', '60')) http_retries = int(os.environ.get('HTTP_RETRIES', '3')) # Team Cymru Scout API credentials scout_base_url = os.environ.get('SCOUT_BASE_URL', 'https://scout.cymru.com') scout_api_token = os.environ.get('SCOUT_API_TOKEN') if not all([bucket_name, scout_api_token]): print('Error: Missing required environment variables') return try: # Get GCS bucket bucket = storage_client.bucket(bucket_name) # Load state (last collection timestamp) state = load_state(bucket, state_key) now = time.time() last_collection = state.get('last_collection_ts', now - (collection_interval_hours * 3600)) print(f'Collecting usage data at {iso_format(now)} (last collection: {iso_format(last_collection)})') # Fetch usage data from Team Cymru Scout API usage_data = fetch_usage_data( scout_base_url, scout_api_token, http_timeout, http_retries ) if usage_data: # Add timestamp and event type usage_data['event_type'] = 'account_usage' usage_data['collection_timestamp'] = iso_format(now) # Write to GCS write_to_gcs(bucket, prefix, usage_data, now) # Update state save_state(bucket, state_key, {'last_collection_ts': now}) print(f'Successfully collected and stored usage data') else: print('No usage data retrieved') except Exception as e: print(f'Error processing usage data: {str(e)}') raise def iso_format(ts): """Convert Unix timestamp to ISO 8601 format.""" return time.strftime('%Y-%m-%dT%H:%M:%SZ', time.gmtime(ts)) def load_state(bucket, key): """Load state from GCS.""" try: blob = bucket.blob(key) if blob.exists(): state_data = blob.download_as_text() return json.loads(state_data) except Exception as e: print(f'Warning: Could not load state: {str(e)}') return {} def save_state(bucket, key, state): """Save state to GCS.""" try: blob = bucket.blob(key) blob.upload_from_string( json.dumps(state, separators=(',', ':')), content_type='application/json' ) except Exception as e: print(f'Warning: Could not save state: {str(e)}') def http_request(url, method='GET', body=None, headers=None, timeout=60, retries=3): """Make HTTP request with retry logic.""" attempt = 0 while True: try: req_headers = headers or {} if body is not None: req_headers['Content-Type'] = 'application/json' body_bytes = body.encode('utf-8') if isinstance(body, str) else body else: body_bytes = None response = http.request( method, url, body=body_bytes, headers=req_headers, timeout=timeout ) if response.status == 200: return response.data, response.headers.get('Content-Type', 'application/json') elif response.status in (429, 500, 502, 503, 504) and attempt < retries: delay = 1 + attempt retry_after = response.headers.get('Retry-After') if retry_after: try: delay = int(retry_after) except: pass time.sleep(max(1, delay)) attempt += 1 continue else: raise Exception(f'HTTP {response.status}: {response.data.decode("utf-8")}') except urllib3.exceptions.HTTPError as e: if attempt < retries: time.sleep(1 + attempt) attempt += 1 continue raise def fetch_usage_data(base_url, api_token, timeout, retries): """ Fetch usage data from Team Cymru Scout API. Implementation mirrors the official Scout API example: curl --request GET --url 'https://scout.cymru.com/api/scout/usage' --header 'Authorization: Token valid_api_token' """ # Use the documented /api/scout/usage endpoint url = f'{base_url}/api/scout/usage' # Use Token authentication as documented headers = { 'Authorization': f'Token {api_token}', 'Accept': 'application/json' } print(f'Fetching usage data from {url}') try: # Fetch data blob_data, content_type = http_request(url, method='GET', headers=headers, timeout=timeout, retries=retries) # Parse response usage_data = json.loads(blob_data.decode('utf-8')) print(f'Retrieved usage data: used_queries={usage_data.get("used_queries")}, query_limit={usage_data.get("query_limit")}') return usage_data except Exception as e: print(f'Error fetching usage data: {e}') return None def write_to_gcs(bucket, prefix, data, timestamp): """Write data to GCS.""" # Create date-based path date_path = time.strftime('%Y/%m/%d', time.gmtime(timestamp)) key = f'{prefix}{date_path}/usage_{int(timestamp)}.json' # Write as JSON blob = bucket.blob(key) blob.upload_from_string( json.dumps(data, separators=(',', ':')), content_type='application/json' ) print(f'Wrote data to gs://{bucket.name}/{key}')- 두 번째 파일: requirements.txt:
functions-framework==3.* google-cloud-storage==2.* urllib3>=2.0.0배포를 클릭하여 함수를 저장하고 배포합니다.
배포가 완료될 때까지 기다립니다 (2~3분).
Cloud Scheduler 작업 만들기
Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.
- GCP Console에서 Cloud Scheduler로 이동합니다.
- 작업 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 이름 team-cymru-scout-ti-hourly리전 Cloud Run 함수와 동일한 리전 선택 주파수 0 * * * *(매시간 정각)시간대 시간대 선택 (UTC 권장) 타겟 유형 Pub/Sub 주제 team-cymru-scout-ti-trigger주제를 선택합니다.메일 본문 {}(빈 JSON 객체)만들기를 클릭합니다.
일정 빈도 옵션
데이터 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.
빈도 크론 표현식 사용 사례 5분마다 */5 * * * *빈도가 높은 모니터링 15분마다 */15 * * * *중간 게재빈도 1시간마다 0 * * * *일반(권장) 6시간마다 0 */6 * * *낮은 주파수 매일 0 0 * * *일일 사용량 추적
스케줄러 작업 테스트
- Cloud Scheduler 콘솔에서 작업을 찾습니다.
- 강제 실행을 클릭하여 수동으로 트리거합니다.
- 몇 초간 기다린 후 Cloud Run > 서비스 > team-cymru-scout-ti-collector > 로그로 이동합니다.
- 함수가 성공적으로 실행되었는지 확인합니다.
- GCS 버킷을 확인하여 사용 데이터가 기록되었는지 확인합니다.
Google SecOps 서비스 계정 가져오기
Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.
서비스 계정 이메일 가져오기
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에 피드 이름을 입력합니다(예:
Team Cymru Scout Threat Intelligence). - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 Team Cymru Scout Threat Intelligence를 선택합니다.
서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.
chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.
Google SecOps 서비스 계정에 IAM 권한 부여
Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.
- Cloud Storage> 버킷으로 이동합니다.
- 버킷 이름을 클릭합니다.
- 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
- 역할 할당: 스토리지 객체 뷰어를 선택합니다.
저장을 클릭합니다.
Team Cymru Scout 위협 인텔리전스 데이터를 수집하도록 Google SecOps에서 피드 구성
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에 피드 이름을 입력합니다(예:
Team Cymru Scout Threat Intelligence). - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 Team Cymru Scout Threat Intelligence를 선택합니다.
- 다음을 클릭합니다.
다음 입력 매개변수의 값을 지정합니다.
스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.
gs://team-cymru-scout-ti/team-cymru/scout-ti/다음과 같이 바꿉니다.
team-cymru-scout-ti: GCS 버킷 이름입니다.team-cymru/scout-ti/: 로그가 저장되는 접두사/폴더 경로입니다.
소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.
- 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
- 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.
최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.
애셋 네임스페이스: 애셋 네임스페이스입니다.
수집 라벨: 이 피드의 이벤트에 적용할 라벨입니다.
다음을 클릭합니다.
확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.
도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.