Proofpoint Emerging Threats Pro IOC 로그 수집
이 문서에서는 Google Cloud Storage를 사용하여 Proofpoint Emerging Threats Pro IOC 로그를 Google Security Operations에 수집하는 방법을 설명합니다. Emerging Threats Intelligence는 카테고리, 점수, 시간 정보를 포함한 위협 인텔리전스 데이터와 함께 IP 및 도메인의 평판 목록을 CSV 형식으로 매시간 게시합니다. 파서 코드는 CSV 형식의 ET_PRO 위협 인텔리전스 데이터를 처리합니다. IP 주소, 도메인, 카테고리, 점수, 기타 관련 정보를 추출하여 표준화된 IOC 형식과 Chronicle UDM 스키마에 매핑하여 Google SecOps 내에서 추가 분석 및 사용을 지원합니다.
시작하기 전에
다음 기본 요건이 충족되었는지 확인합니다.
- Google SecOps 인스턴스
- Cloud Storage API가 사용 설정된 GCP 프로젝트
- GCS 버킷을 만들고 관리할 수 있는 권한
- GCS 버킷의 IAM 정책을 관리할 수 있는 권한
- Cloud Run 서비스, Pub/Sub 주제, Cloud Scheduler 작업을 만들 수 있는 권한
- 평판 목록에 액세스할 수 있는 Proofpoint ET 인텔리전스 구독
- https://etadmin.proofpoint.com/api-access의 ET Intelligence API 키
Emerging Threats Pro 기본 요건 수집
- https://etadmin.proofpoint.com에서 ET Intelligence 관리 포털에 로그인합니다.
- API 액세스로 이동합니다.
- API 키를 복사하여 저장합니다.
- Proofpoint 담당자에게 문의하여 다음을 받으세요.
- 자세한 IP 평판 목록 URL
- 세부 도메인 평판 목록 URL
ET Intelligence는 IP 및 도메인 평판 목록에 대해 별도의 CSV 파일을 제공하며, 이는 매시간 업데이트됩니다. 다음 열이 포함된 '세부' 형식을 사용하세요.
- 도메인 목록: 도메인 이름, 카테고리, 점수, 처음 확인한 날짜, 마지막으로 확인한 날짜, 포트
- IP 목록: IP 주소, 카테고리, 점수, 처음 본 날짜, 마지막으로 본 날짜, 포트
세부 형식 URL은 일반적으로 다음 패턴을 따릅니다.
- IP 목록:
https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-iprepdata.txt - 도메인 목록:
https://rules.emergingthreatspro.com/[your-code]/reputation/detailed-domainrepdata.txt
인증 헤더에는 Emerging Threats API 요구사항과 일치하는 Bearer 접두사 없는 원시 API 키 값이 포함되어야 합니다.
Google Cloud Storage 버킷 만들기
- Google Cloud Console로 이동합니다.
- 프로젝트를 선택하거나 새 프로젝트를 만듭니다.
- 탐색 메뉴에서 Cloud Storage> 버킷으로 이동합니다.
- 버킷 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 버킷 이름 지정 전역적으로 고유한 이름 (예: et-pro-ioc-bucket)을 입력합니다.위치 유형 필요에 따라 선택 (리전, 이중 리전, 멀티 리전) 위치 위치를 선택합니다 (예: us-central1).스토리지 클래스 Standard (자주 액세스하는 로그에 권장) 액세스 제어 균일 (권장) 보호 도구 선택사항: 객체 버전 관리 또는 보관 정책 사용 설정 만들기를 클릭합니다.
Cloud Run 함수의 서비스 계정 만들기
Cloud Run 함수에는 GCS 버킷에 쓸 수 있고 Pub/Sub에서 호출할 수 있는 권한이 있는 서비스 계정이 필요합니다.
서비스 계정 만들기
- GCP 콘솔에서 IAM 및 관리자 > 서비스 계정으로 이동합니다.
- 서비스 계정 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 서비스 계정 이름:
et-pro-ioc-fetcher-sa을 입력합니다. - 서비스 계정 설명:
Service account for Cloud Run function to collect Proofpoint ET Pro IOC logs을 입력합니다.
- 서비스 계정 이름:
- 만들고 계속하기를 클릭합니다.
- 이 서비스 계정에 프로젝트에 대한 액세스 권한 부여 섹션에서 다음 역할을 추가합니다.
- 역할 선택을 클릭합니다.
- 스토리지 객체 관리자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Run 호출자를 검색하여 선택합니다.
- + 다른 역할 추가를 클릭합니다.
- Cloud Functions 호출자를 검색하여 선택합니다.
- 계속을 클릭합니다.
- 완료를 클릭합니다.
이러한 역할은 다음 작업에 필요합니다.
- 스토리지 객체 관리자: GCS 버킷에 로그를 쓰고 상태 파일을 관리합니다.
- Cloud Run 호출자: Pub/Sub가 함수를 호출하도록 허용
- Cloud Functions 호출자: 함수 호출 허용
GCS 버킷에 대한 IAM 권한 부여
GCS 버킷에 대한 쓰기 권한을 서비스 계정에 부여합니다.
- Cloud Storage> 버킷으로 이동합니다.
- 버킷 이름을 클릭합니다.
- 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가: 서비스 계정 이메일 (예:
et-pro-ioc-fetcher-sa@PROJECT_ID.iam.gserviceaccount.com)을 입력합니다. - 역할 할당: 스토리지 객체 관리자를 선택합니다.
- 주 구성원 추가: 서비스 계정 이메일 (예:
- 저장을 클릭합니다.
게시/구독 주제 만들기
Cloud Scheduler가 게시하고 Cloud Run 함수가 구독할 Pub/Sub 주제를 만듭니다.
- GCP Console에서 Pub/Sub > 주제로 이동합니다.
- 주제 만들기를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주제 ID:
et-pro-ioc-trigger를 입력합니다. - 다른 설정은 기본값으로 둡니다.
- 주제 ID:
- 만들기를 클릭합니다.
로그를 수집하는 Cloud Run 함수 만들기
Cloud Run 함수는 Cloud Scheduler의 Pub/Sub 메시지에 의해 트리거되어 Proofpoint ET Intelligence API에서 로그를 가져오고 GCS에 씁니다.
- GCP 콘솔에서 Cloud Run으로 이동합니다.
- 서비스 만들기를 클릭합니다.
- 함수를 선택합니다 (인라인 편집기를 사용하여 함수 만들기).
구성 섹션에서 다음 구성 세부정보를 제공합니다.
설정 값 서비스 이름 et-pro-ioc-fetcher리전 GCS 버킷과 일치하는 리전을 선택합니다 (예: us-central1).런타임 Python 3.12 이상 선택 트리거 (선택사항) 섹션에서 다음을 수행합니다.
- + 트리거 추가를 클릭합니다.
- Cloud Pub/Sub를 선택합니다.
- Cloud Pub/Sub 주제 선택에서
et-pro-ioc-trigger을 선택합니다. - 저장을 클릭합니다.
인증 섹션에서 다음을 구성합니다.
- 인증 필요를 선택합니다.
- ID 및 액세스 관리 (IAM)를 확인합니다.
아래로 스크롤하고 컨테이너, 네트워킹, 보안을 펼칩니다.
보안 탭으로 이동합니다.
- 서비스 계정:
et-pro-ioc-fetcher-sa를 선택합니다.
- 서비스 계정:
컨테이너 탭으로 이동합니다.
- 변수 및 보안 비밀을 클릭합니다.
- 각 환경 변수에 대해 + 변수 추가를 클릭합니다.
변수 이름 예시 값 설명 GCS_BUCKETet-pro-ioc-bucketGCS 버킷 이름 GCS_PREFIXet-pro-ioc로그 파일의 접두사 STATE_KEYet-pro-ioc/state.json상태 파일 경로 ET_API_KEYyour-et-api-keyET Intelligence API 키 ET_IP_LIST_URLhttps://rules.emergingthreatspro.com/[your-code]/reputation/detailed-iprepdata.txt자세한 IP 평판 목록 URL ET_DOMAIN_LIST_URLhttps://rules.emergingthreatspro.com/[your-code]/reputation/detailed-domainrepdata.txt세부 도메인 평판 목록 URL TIMEOUT120HTTP 요청 제한 시간(초) 변수 및 보안 비밀 탭에서 요청까지 아래로 스크롤합니다.
- 요청 제한 시간:
600초 (10분)를 입력합니다.
- 요청 제한 시간:
컨테이너의 설정 탭으로 이동합니다.
- 리소스 섹션에서 다음을 수행합니다.
- 메모리: 512MiB 이상을 선택합니다.
- CPU: 1을 선택합니다.
- 완료를 클릭합니다.
- 리소스 섹션에서 다음을 수행합니다.
실행 환경으로 스크롤합니다.
- 기본을 선택합니다 (권장).
버전 확장 섹션에서 다음을 수행합니다.
- 최소 인스턴스 수:
0를 입력합니다. - 최대 인스턴스 수:
100을 입력합니다 (또는 예상 부하에 따라 조정).
- 최소 인스턴스 수:
만들기를 클릭합니다.
서비스가 생성될 때까지 기다립니다 (1~2분).
서비스가 생성되면 인라인 코드 편집기가 자동으로 열립니다.
함수 코드 추가
- 함수 진입점에 main을 입력합니다.
인라인 코드 편집기에서 다음 두 파일을 만듭니다.
- 첫 번째 파일: main.py:
import functions_framework from google.cloud import storage import json import os import urllib3 from datetime import datetime, timezone import time # Initialize HTTP client with timeouts http = urllib3.PoolManager( timeout=urllib3.Timeout(connect=5.0, read=30.0), retries=False, ) # Initialize Storage client storage_client = storage.Client() @functions_framework.cloud_event def main(cloud_event): """ Cloud Run function triggered by Pub/Sub to fetch ET Pro IOC reputation lists and write to GCS. Args: cloud_event: CloudEvent object containing Pub/Sub message """ # Get environment variables bucket_name = os.environ.get('GCS_BUCKET') prefix = os.environ.get('GCS_PREFIX', 'et-pro-ioc').strip('/') state_key = os.environ.get('STATE_KEY', f'{prefix}/state.json') et_api_key = os.environ.get('ET_API_KEY') et_ip_list_url = os.environ.get('ET_IP_LIST_URL') et_domain_list_url = os.environ.get('ET_DOMAIN_LIST_URL') timeout = int(os.environ.get('TIMEOUT', '120')) if not all([bucket_name, et_api_key, et_ip_list_url, et_domain_list_url]): print('Error: Missing required environment variables') return try: # Get GCS bucket bucket = storage_client.bucket(bucket_name) # Generate timestamp for file naming now = datetime.now(timezone.utc) timestamp = now.strftime('%Y/%m/%d/%H%M%S') results = [] errors = [] # Fetch IP reputation list try: print('Fetching IP reputation list...') ip_data = fetch_with_retry(et_ip_list_url, et_api_key, timeout) ip_key = f'{prefix}/ip/{timestamp}.csv' save_to_gcs(bucket, ip_key, ip_data) results.append({'type': 'ip', 'key': ip_key, 'size': len(ip_data)}) print(f'Successfully fetched IP list: {len(ip_data)} bytes') except Exception as e: error_msg = f'Failed to fetch IP list: {str(e)}' print(error_msg) errors.append(error_msg) # Fetch Domain reputation list try: print('Fetching Domain reputation list...') domain_data = fetch_with_retry(et_domain_list_url, et_api_key, timeout) domain_key = f'{prefix}/domain/{timestamp}.csv' save_to_gcs(bucket, domain_key, domain_data) results.append({'type': 'domain', 'key': domain_key, 'size': len(domain_data)}) print(f'Successfully fetched Domain list: {len(domain_data)} bytes') except Exception as e: error_msg = f'Failed to fetch Domain list: {str(e)}' print(error_msg) errors.append(error_msg) # Save state state = { 'last_fetch': now.isoformat(), 'results': results, 'errors': errors } save_state(bucket, state_key, state) if errors: print(f'Completed with {len(errors)} error(s)') else: print('Successfully completed all fetches') except Exception as e: print(f'Error processing logs: {str(e)}') raise def fetch_with_retry(url, api_key, timeout, max_retries=3): """Fetch URL with retry logic for rate limits.""" if not url.lower().startswith('https://'): raise ValueError('Only HTTPS URLs are allowed') headers = {'Authorization': api_key} for attempt in range(max_retries): try: response = http.request('GET', url, headers=headers, timeout=timeout) if response.status == 200: return response.data elif response.status == 429: # Rate limited, wait and retry wait_time = min(30 * (2 ** attempt), 300) print(f'Rate limited, waiting {wait_time}s...') time.sleep(wait_time) else: raise Exception(f'HTTP {response.status}: {response.reason}') except Exception as e: if attempt == max_retries - 1: raise time.sleep(5 * (attempt + 1)) raise Exception(f'Failed to fetch {url} after {max_retries} attempts') def save_to_gcs(bucket, key, content): """Save content to GCS with appropriate content type.""" blob = bucket.blob(key) blob.upload_from_string(content, content_type='text/csv') print(f'Saved {len(content)} bytes to gs://{bucket.name}/{key}') def save_state(bucket, key, state): """Save state to GCS.""" try: blob = bucket.blob(key) blob.upload_from_string( json.dumps(state, indent=2), content_type='application/json' ) except Exception as e: print(f'Warning: Could not save state: {str(e)}')- 두 번째 파일: requirements.txt:
functions-framework==3.* google-cloud-storage==2.* urllib3>=2.0.0배포를 클릭하여 함수를 저장하고 배포합니다.
배포가 완료될 때까지 기다립니다 (2~3분).
Cloud Scheduler 작업 만들기
Cloud Scheduler는 일정 간격으로 Pub/Sub 주제에 메시지를 게시하여 Cloud Run 함수를 트리거합니다.
- GCP Console에서 Cloud Scheduler로 이동합니다.
- 작업 만들기를 클릭합니다.
다음 구성 세부정보를 제공합니다.
설정 값 이름 et-pro-ioc-fetcher-hourly리전 Cloud Run 함수와 동일한 리전 선택 주파수 0 * * * *(매시간 정각)시간대 시간대 선택 (UTC 권장) 타겟 유형 Pub/Sub 주제 et-pro-ioc-trigger선택메일 본문 {}(빈 JSON 객체)만들기를 클릭합니다.
일정 빈도 옵션
로그 볼륨 및 지연 시간 요구사항에 따라 빈도를 선택합니다.
빈도 크론 표현식 사용 사례 1시간마다 0 * * * *표준 (ET Pro IOC에 권장) 2시간마다 0 */2 * * *주파수 낮추기 6시간마다 0 */6 * * *최소 업데이트
통합 테스트
- Cloud Scheduler 콘솔에서 작업을 찾습니다.
- 강제 실행을 클릭하여 작업을 수동으로 트리거합니다.
- 몇 초 동안 기다립니다.
- Cloud Run > 서비스로 이동합니다.
- 함수 이름 (
et-pro-ioc-fetcher)을 클릭합니다. - 로그 탭을 클릭합니다.
함수가 성공적으로 실행되었는지 확인합니다. 다음을 확인하세요.
Fetching IP reputation list... Successfully fetched IP list: X bytes Fetching Domain reputation list... Successfully fetched Domain list: X bytes Successfully completed all fetchesCloud Storage> 버킷으로 이동합니다.
버킷 이름을 클릭합니다.
접두사 폴더 (
et-pro-ioc/ip/및et-pro-ioc/domain/)로 이동합니다.새
.csv파일이 현재 타임스탬프로 생성되었는지 확인합니다.
로그에 오류가 표시되면 다음 단계를 따르세요.
- HTTP 401: 환경 변수에서 ET_API_KEY 확인
- HTTP 403: API 키에 필요한 권한이 있는지 확인
- HTTP 429: 비율 제한 - 함수가 백오프를 사용하여 자동으로 재시도됩니다.
- 환경 변수 누락: 필수 변수가 모두 설정되었는지 확인
Google SecOps 서비스 계정 가져오기
Google SecOps는 고유한 서비스 계정을 사용하여 GCS 버킷에서 데이터를 읽습니다. 이 서비스 계정에 버킷에 대한 액세스 권한을 부여해야 합니다.
서비스 계정 이메일 가져오기
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에 피드 이름을 입력합니다(예:
ET Pro IOC - IP Reputation). - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 Emerging Threats Pro를 선택합니다.
서비스 계정 가져오기를 클릭합니다. 고유한 서비스 계정 이메일이 표시됩니다. 예를 들면 다음과 같습니다.
chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com다음 단계에서 사용할 수 있도록 이 이메일 주소를 복사합니다.
Google SecOps 서비스 계정에 IAM 권한 부여
Google SecOps 서비스 계정에는 GCS 버킷에 대한 스토리지 객체 뷰어 역할이 필요합니다.
- Cloud Storage> 버킷으로 이동합니다.
- 버킷 이름을 클릭합니다.
- 권한 탭으로 이동합니다.
- 액세스 권한 부여를 클릭합니다.
- 다음 구성 세부정보를 제공합니다.
- 주 구성원 추가: Google SecOps 서비스 계정 이메일을 붙여넣습니다.
- 역할 할당: 스토리지 객체 뷰어를 선택합니다.
저장을 클릭합니다.
Proofpoint Emerging Threats Pro IOC 로그를 수집하도록 Google SecOps에서 피드 구성
IP 평판용 피드와 도메인 평판용 피드 등 별도의 피드 두 개를 만들어야 합니다.
IP 평판 피드 만들기
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에
ET Pro IOC - IP Reputation를 입력합니다. - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 Emerging Threats Pro를 선택합니다.
- 다음을 클릭합니다.
다음 입력 매개변수의 값을 지정합니다.
스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.
gs://et-pro-ioc-bucket/et-pro-ioc/ip/et-pro-ioc-bucket을 실제 GCS 버킷 이름으로 바꿉니다.
소스 삭제 옵션: 환경설정에 따라 삭제 옵션을 선택합니다.
- 삭제 안함: 전송 후 파일을 삭제하지 않습니다 (테스트에 권장).
- 전송된 파일 삭제: 전송이 완료되면 파일을 삭제합니다.
전송된 파일 및 빈 디렉터리 삭제: 전송이 완료되면 파일과 빈 디렉터리를 삭제합니다.
최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.
애셋 네임스페이스: 애셋 네임스페이스입니다.
수집 라벨: 이 피드의 이벤트에 적용된 라벨입니다.
다음을 클릭합니다.
확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.
도메인 평판 피드 만들기
피드 생성 프로세스를 반복합니다.
- SIEM 설정> 피드로 이동합니다.
- 새 피드 추가를 클릭합니다.
- 단일 피드 구성을 클릭합니다.
- 피드 이름 필드에
ET Pro IOC - Domain Reputation를 입력합니다. - 소스 유형으로 Google Cloud Storage V2를 선택합니다.
- 로그 유형으로 Emerging Threats Pro를 선택합니다.
- 다음을 클릭합니다.
다음 입력 매개변수의 값을 지정합니다.
- 스토리지 버킷 URL: 다음 접두사 경로를 사용하여 GCS 버킷 URI를 입력합니다.
gs://et-pro-ioc-bucket/et-pro-ioc/domain/et-pro-ioc-bucket을 실제 GCS 버킷 이름으로 바꿉니다.- 소스 삭제 옵션: 환경설정에 따라 선택합니다.
- 최대 파일 기간: 지난 일수 동안 수정된 파일을 포함합니다. 기본값은 180일입니다.
- 애셋 네임스페이스: 애셋 네임스페이스입니다.
- 수집 라벨: 이 피드의 이벤트에 적용된 라벨입니다.
다음을 클릭합니다.
확정 화면에서 새 피드 구성을 검토한 다음 제출을 클릭합니다.
UDM 매핑 테이블
| 로그 필드 | UDM 매핑 | 로직 |
|---|---|---|
| 카테고리 | 이 필드는 파서 로직에서 사용되지만 UDM에 직접 매핑되지는 않습니다. | 조회 테이블을 통해 event.ioc.categorization 값을 결정합니다. |
| collection_time.nanos | event.idm.entity.metadata.collected_timestamp.nanos | 원시 로그에서 직접 매핑됩니다. |
| collection_time.seconds | event.idm.entity.metadata.collected_timestamp.seconds | 원시 로그에서 직접 매핑됩니다. |
| 데이터 | 이 필드는 콘텐츠에 따라 여러 UDM 필드로 파싱됩니다. | |
| first_seen | event.idm.entity.metadata.interval.start_time | 날짜로 파싱되어 UDM에 매핑됩니다. |
| first_seen | event.ioc.active_timerange.start | 날짜로 파싱되어 UDM에 매핑됩니다. |
| ip_or_domain | event.idm.entity.entity.hostname | Grok 패턴이 필드에서 호스트를 추출하는 경우 UDM에 매핑됩니다. |
| ip_or_domain | event.idm.entity.entity.ip | grok 패턴이 필드에서 호스트를 추출하지 않는 경우 UDM에 매핑됩니다. |
| ip_or_domain | event.ioc.domain_and_ports.domain | Grok 패턴이 필드에서 호스트를 추출하는 경우 UDM에 매핑됩니다. |
| ip_or_domain | event.ioc.ip_and_ports.ip_address | grok 패턴이 필드에서 호스트를 추출하지 않는 경우 UDM에 매핑됩니다. |
| last_seen | event.idm.entity.metadata.interval.end_time | 날짜로 파싱되어 UDM에 매핑됩니다. |
| last_seen | event.ioc.active_timerange.end | 날짜로 파싱되어 UDM에 매핑됩니다. |
| ports | event.idm.entity.entity.labels.value | 포트가 여러 개인 경우 쉼표 구분자로 파싱되고 결합되어 UDM에 매핑됩니다. |
| ports | event.idm.entity.entity.port | 포트가 하나만 있는 경우 파싱되어 UDM에 매핑됩니다. |
| ports | event.ioc.domain_and_ports.ports | grok 패턴이 필드에서 호스트를 추출하는 경우 파싱되고 UDM에 매핑됩니다. |
| ports | event.ioc.ip_and_ports.ports | grok 패턴이 필드에서 호스트를 추출하지 않으면 파싱되어 UDM에 매핑됩니다. |
| 점수 | event.ioc.confidence_score | 원시 로그에서 직접 매핑됩니다. |
| event.idm.entity.entity.labels.key | 포트가 여러 개인 경우 'ports'로 설정합니다. | |
| event.idm.entity.metadata.entity_type | grok 패턴이 ip_or_domain 필드에서 호스트를 추출하는 경우 'DOMAIN_NAME'으로 설정하고, 그렇지 않으면 'IP_ADDRESS'로 설정합니다. | |
| event.idm.entity.metadata.threat.category | 'SOFTWARE_MALICIOUS'로 설정합니다. | |
| event.idm.entity.metadata.threat.category_details | 조회 테이블을 사용하여 카테고리 필드에서 파생됩니다. | |
| event.idm.entity.metadata.threat.threat_name | 'ET Intelligence Rep List'로 설정합니다. | |
| event.idm.entity.metadata.vendor_name | 'ET_PRO_IOC'로 설정합니다. | |
| event.ioc.feed_name | 'ET Intelligence Rep List'로 설정합니다. | |
| event.ioc.raw_severity | '악성'으로 설정합니다. | |
| timestamp.nanos | collection_time.nanos에서 복사했습니다. | |
| timestamp.seconds | collection_time.seconds에서 복사했습니다. |
도움이 더 필요한가요? 커뮤니티 회원 및 Google SecOps 전문가에게 문의하여 답변을 받으세요.