ZeroFox プラットフォームのログを収集する

以下でサポートされています。

このドキュメントでは、Google Cloud Storage を使用して ZeroFox Platform ログを Google Security Operations に取り込む方法について説明します。ZeroFox Platform は、ソーシャル メディア、モバイルアプリ、クラウド、メールなどのデジタル チャネル全体で脅威をモニタリングして分析することで、デジタル リスク保護を提供します。

始める前に

次の前提条件を満たしていることを確認します。

  • Google SecOps インスタンス
  • Cloud Storage API が有効になっている GCP プロジェクト
  • GCS バケットを作成および管理する権限
  • GCS バケットの IAM ポリシーを管理する権限
  • Cloud Run サービス、Pub/Sub トピック、Cloud Scheduler ジョブを作成する権限
  • ZeroFox Platform テナントへの特権アクセス

Google Cloud Storage バケットを作成する

  1. Google Cloud Console に移動します。
  2. プロジェクトを選択するか、新しいプロジェクトを作成します。
  3. ナビゲーション メニューで、[Cloud Storage > バケット] に移動します。
  4. [バケットを作成] をクリックします。
  5. 次の構成情報を提供してください。

    設定
    バケットに名前を付ける グローバルに一意の名前(zerofox-platform-logs など)を入力します。
    ロケーション タイプ ニーズに基づいて選択します(リージョン、デュアルリージョン、マルチリージョン)。
    ロケーション ロケーションを選択します(例: us-central1)。
    ストレージ クラス Standard(頻繁にアクセスされるログにおすすめ)
    アクセス制御 均一(推奨)
    保護ツール 省略可: オブジェクトのバージョニングまたは保持ポリシーを有効にする
  6. [作成] をクリックします。

ZeroFox Platform の認証情報を収集する

ZeroFox 個人用アクセス トークンを取得する

  1. https://cloud.zerofox.com で ZeroFox Platform にログインします。
  2. [設定> データ接続> API データフィード] に移動します。
    • 直接 URL(ログイン後): https://cloud.zerofox.com/data_connectors/api
    • 注: このメニュー項目が表示されない場合は、ZeroFox 管理者にアクセス権をリクエストしてください。テナント UI のバージョンによっては、メニューに [データコネクタ > API データフィード] と表示されることもあります。
  3. [Generate Token] または [Create Personal Access Token] をクリックします。
  4. 次の構成の詳細を指定します。
    • 名前: わかりやすい名前を入力します(例: Google SecOps GCS Ingestion)。
    • 有効期限: 組織のセキュリティ ポリシーに従ってローテーション期間を選択します。
    • 権限/フィード: 読み取り権限を選択します。
      • アラート
      • CTI フィード
      • エクスポートするその他のデータ型
  5. [生成] をクリックします。
  6. 生成された個人用アクセス トークンをコピーして安全な場所に保存します(後で表示することはできません)。
  7. ZEROFOX_BASE_URL: https://api.zerofox.com(ほとんどのテナントのデフォルト)を保存します。

権限を確認する

アカウントに必要な権限があることを確認するには:

  1. ZeroFox Platform にログインします。
  2. [設定](⚙️)> [データ接続> API データフィード] に移動します。
  3. [API データフィード] セクションが表示され、トークンを生成できる場合は、必要な権限があります。
  4. このオプションが表示されない場合は、API アクセス権限を付与するよう管理者に依頼してください。

テスト API アクセス

  • 統合に進む前に、認証情報をテストします。

    # Replace with your actual credentials
    ZEROFOX_API_TOKEN="your-personal-access-token"
    ZEROFOX_BASE_URL="https://api.zerofox.com"
    
    # Test API access (example endpoint - adjust based on your data type)
    curl -v -H "Authorization: Bearer $ZEROFOX_API_TOKEN" \
      -H "Accept: application/json" \
      "$ZEROFOX_BASE_URL/v1/alerts?limit=1"
    

Cloud Run functions のサービス アカウントを作成する

Cloud Run 関数には、GCS バケットに書き込み、Pub/Sub によって呼び出される権限を持つサービス アカウントが必要です。

サービス アカウントの作成

  1. GCP Console で、[IAM と管理>サービス アカウント] に移動します。
  2. [サービス アカウントを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • サービス アカウント名: 「zerofox-logs-collector-sa」と入力します。
    • サービス アカウントの説明: 「Service account for Cloud Run function to collect ZeroFox Platform logs」と入力します。
  4. [作成して続行] をクリックします。
  5. [このサービス アカウントにプロジェクトへのアクセスを許可する] セクションで、次のロールを追加します。
    1. [ロールを選択] をクリックします。
    2. [ストレージ オブジェクト管理者] を検索して選択します。
    3. [+ 別のロールを追加] をクリックします。
    4. [Cloud Run 起動元] を検索して選択します。
    5. [+ 別のロールを追加] をクリックします。
    6. [Cloud Functions 起動元] を検索して選択します。
  6. [続行] をクリックします。
  7. [完了] をクリックします。

これらのロールは、次の目的で必要です。

  • Storage オブジェクト管理者: ログを GCS バケットに書き込み、状態ファイルを管理する
  • Cloud Run 起動元: Pub/Sub が関数を呼び出すことを許可する
  • Cloud Functions 起動元: 関数の呼び出しを許可する

GCS バケットに対する IAM 権限を付与する

GCS バケットに対する書き込み権限をサービス アカウント(zerofox-logs-collector-sa)に付与します。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名(zerofox-platform-logs など)をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: サービス アカウントのメールアドレス(例: zerofox-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com)を入力します。
    • ロールを割り当てる: [Storage オブジェクト管理者] を選択します。
  6. [保存] をクリックします。

Pub/Sub トピックの作成

Cloud Scheduler がパブリッシュし、Cloud Run functions がサブスクライブする Pub/Sub トピックを作成します。

  1. GCP Console で、[Pub/Sub> トピック] に移動します。
  2. [トピックを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • トピック ID: 「zerofox-logs-trigger」と入力します。
    • その他の設定はデフォルトのままにします。
  4. [作成] をクリックします。

ログを収集する Cloud Run 関数を作成する

Cloud Run 関数は、Cloud Scheduler からの Pub/Sub メッセージによってトリガーされ、ZeroFox Platform API からログを取得して GCS に書き込みます。

  1. GCP Console で、[Cloud Run] に移動します。
  2. [サービスを作成] をクリックします。
  3. [関数] を選択します(インライン エディタを使用して関数を作成します)。
  4. [構成] セクションで、次の構成の詳細を指定します。

    設定
    サービス名 zerofox-logs-collector
    リージョン GCS バケットと一致するリージョンを選択します(例: us-central1)。
    ランタイム [Python 3.12] 以降を選択します。
  5. [トリガー(省略可)] セクションで、次の操作を行います。

    1. [+ トリガーを追加] をクリックします。
    2. [Cloud Pub/Sub] を選択します。
    3. [Cloud Pub/Sub トピックを選択してください] で、Pub/Sub トピック(zerofox-logs-trigger)を選択します。
    4. [保存] をクリックします。
  6. [認証] セクションで、次の操作を行います。

    1. [認証が必要] を選択します。
    2. Identity and Access Management(IAM)を確認します。
  7. 下にスクロールして、[コンテナ、ネットワーキング、セキュリティ] を開きます。

  8. [セキュリティ] タブに移動します。

    • サービス アカウント: サービス アカウントを選択します(zerofox-logs-collector-sa)。
  9. [コンテナ] タブに移動します。

    1. [変数とシークレット] をクリックします。
    2. 環境変数ごとに [+ 変数を追加] をクリックします。
    変数名 値の例 説明
    GCS_BUCKET zerofox-platform-logs GCS バケット名
    GCS_PREFIX zerofox/platform ログファイルの接頭辞
    STATE_KEY zerofox/platform/state.json 状態ファイルのパス
    ZEROFOX_BASE_URL https://api.zerofox.com API ベース URL
    ZEROFOX_API_TOKEN your-zerofox-personal-access-token 個人用のアクセス トークン
    LOOKBACK_HOURS 24 最初のルックバック期間
    PAGE_SIZE 200 1 ページあたりのレコード数
    MAX_PAGES 20 実行あたりの最大ページ数
    HTTP_TIMEOUT 60 HTTP リクエスト タイムアウト(秒)
    HTTP_RETRIES 3 HTTP 再試行回数
    URL_TEMPLATE (省略可) {SINCE}{PAGE_TOKEN}{PAGE_SIZE} を含むカスタム URL テンプレート
  10. [変数とシークレット] セクションで、[リクエスト] まで下にスクロールします。

    • リクエストのタイムアウト: 600 秒(10 分)を入力します。
  11. [設定] タブに移動します。

    • [リソース] セクションで次の操作を行います。
      • メモリ: 512 MiB 以上を選択します。
      • CPU: [1] を選択します。
  12. [リビジョン スケーリング] セクションで、次の操作を行います。

    • [インスタンスの最小数] に「0」と入力します。
    • インスタンスの最大数: 100 と入力します(または、予想される負荷に基づいて調整します)。
  13. [作成] をクリックします。

  14. サービスが作成されるまで待ちます(1 ~ 2 分)。

  15. サービスを作成すると、インライン コードエディタが自動的に開きます。

関数コードを追加する

  1. [関数のエントリ ポイント] に「main」と入力します。
  2. インライン コードエディタで、次の 2 つのファイルを作成します。

    • 最初のファイル: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    import urllib.parse
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    # Environment variables
    GCS_BUCKET = os.environ.get('GCS_BUCKET')
    GCS_PREFIX = os.environ.get('GCS_PREFIX', 'zerofox/platform')
    STATE_KEY = os.environ.get('STATE_KEY', 'zerofox/platform/state.json')
    ZEROFOX_BASE_URL = os.environ.get('ZEROFOX_BASE_URL', 'https://api.zerofox.com')
    ZEROFOX_API_TOKEN = os.environ.get('ZEROFOX_API_TOKEN')
    LOOKBACK_HOURS = int(os.environ.get('LOOKBACK_HOURS', '24'))
    PAGE_SIZE = int(os.environ.get('PAGE_SIZE', '200'))
    MAX_PAGES = int(os.environ.get('MAX_PAGES', '20'))
    HTTP_TIMEOUT = int(os.environ.get('HTTP_TIMEOUT', '60'))
    HTTP_RETRIES = int(os.environ.get('HTTP_RETRIES', '3'))
    URL_TEMPLATE = os.environ.get('URL_TEMPLATE', '')
    
    def parse_datetime(value: str) -> datetime:
        """Parse ISO datetime string to datetime object."""
        if value.endswith("Z"):
            value = value[:-1] + "+00:00"
        return datetime.fromisoformat(value)
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch ZeroFox Platform logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        if not all([GCS_BUCKET, ZEROFOX_BASE_URL, ZEROFOX_API_TOKEN]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(GCS_BUCKET)
    
            # Load state
            state = load_state(bucket, STATE_KEY)
    
            # Determine time window
            now = datetime.now(timezone.utc)
            last_time = None
    
            if isinstance(state, dict) and state.get("last_since"):
                try:
                    last_time = parse_datetime(state["last_since"])
                    # Overlap by 2 minutes to catch any delayed events
                    last_time = last_time - timedelta(minutes=2)
                except Exception as e:
                    print(f"Warning: Could not parse last_since: {e}")
    
            if last_time is None:
                last_time = now - timedelta(hours=LOOKBACK_HOURS)
    
            since_iso = last_time.strftime('%Y-%m-%dT%H:%M:%SZ')
            print(f"Fetching logs since {since_iso}")
    
            # Fetch logs
            records, newest_since = fetch_logs(
                api_base=ZEROFOX_BASE_URL,
                api_token=ZEROFOX_API_TOKEN,
                since=since_iso,
                page_size=PAGE_SIZE,
                max_pages=MAX_PAGES,
            )
    
            if not records:
                print("No new log records found.")
                save_state(bucket, STATE_KEY, since_iso)
                return
    
            # Write to GCS as NDJSON
            timestamp = now.strftime('%Y%m%d_%H%M%S')
            object_key = f"{GCS_PREFIX}/logs_{timestamp}.ndjson"
            blob = bucket.blob(object_key)
    
            ndjson = '\n'.join([json.dumps(record, ensure_ascii=False) for record in records]) + '\n'
            blob.upload_from_string(ndjson, content_type='application/x-ndjson')
    
            print(f"Wrote {len(records)} records to gs://{GCS_BUCKET}/{object_key}")
    
            # Update state with newest timestamp
            if newest_since:
                save_state(bucket, STATE_KEY, newest_since)
            else:
                save_state(bucket, STATE_KEY, since_iso)
    
            print(f"Successfully processed {len(records)} records")
    
        except Exception as e:
            print(f'Error processing logs: {str(e)}')
            raise
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f"Warning: Could not load state: {e}")
    
        return {}
    
    def save_state(bucket, key, last_since: str):
        """Save the last since timestamp to GCS state file."""
        try:
            state = {'last_since': last_since}
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type='application/json'
            )
            print(f"Saved state: last_since={last_since}")
        except Exception as e:
            print(f"Warning: Could not save state: {e}")
    
    def fetch_logs(api_base: str, api_token: str, since: str, page_size: int, max_pages: int):
        """
        Fetch logs from ZeroFox Platform API with pagination and rate limiting.
    
        Args:
            api_base: API base URL
            api_token: Personal access token
            since: ISO timestamp for filtering logs
            page_size: Number of records per page
            max_pages: Maximum pages to fetch
    
        Returns:
            Tuple of (records list, newest_since ISO string)
        """
        # Use URL_TEMPLATE if provided, otherwise construct default alerts endpoint
        if URL_TEMPLATE:
            base_url = URL_TEMPLATE.replace("{SINCE}", urllib.parse.quote(since))
        else:
            base_url = f"{api_base}/v1/alerts?since={urllib.parse.quote(since)}"
    
        headers = {
            'Authorization': f'Bearer {api_token}',
            'Accept': 'application/json',
            'Content-Type': 'application/json',
            'User-Agent': 'GoogleSecOps-ZeroFoxCollector/1.0'
        }
    
        records = []
        newest_since = since
        page_num = 0
        page_token = ""
        backoff = 1.0
    
        while page_num < max_pages:
            page_num += 1
    
            # Construct URL with pagination
            if URL_TEMPLATE:
                url = (base_url
                       .replace("{PAGE_TOKEN}", urllib.parse.quote(page_token))
                       .replace("{PAGE_SIZE}", str(page_size)))
            else:
                url = f"{base_url}&limit={page_size}"
                if page_token:
                    url += f"&page_token={urllib.parse.quote(page_token)}"
    
            attempt = 0
            while attempt <= HTTP_RETRIES:
                try:
                    response = http.request('GET', url, headers=headers, timeout=HTTP_TIMEOUT)
    
                    # Handle rate limiting with exponential backoff
                    if response.status == 429:
                        retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                        print(f"Rate limited (429). Retrying after {retry_after}s...")
                        time.sleep(retry_after)
                        backoff = min(backoff * 2, 30.0)
                        attempt += 1
                        continue
    
                    backoff = 1.0
    
                    if response.status != 200:
                        print(f"HTTP Error: {response.status}")
                        response_text = response.data.decode('utf-8')
                        print(f"Response body: {response_text}")
                        return records, newest_since
    
                    data = json.loads(response.data.decode('utf-8'))
    
                    # Extract results (try multiple possible keys)
                    page_results = []
                    for key in ('results', 'data', 'alerts', 'items', 'logs', 'events'):
                        if isinstance(data.get(key), list):
                            page_results = data[key]
                            break
    
                    if not page_results:
                        print(f"No more results (empty page)")
                        return records, newest_since
    
                    print(f"Page {page_num}: Retrieved {len(page_results)} events")
                    records.extend(page_results)
    
                    # Track newest timestamp
                    for event in page_results:
                        try:
                            # Try multiple possible timestamp fields
                            event_time = (event.get('timestamp') or 
                                        event.get('created_at') or 
                                        event.get('last_modified') or 
                                        event.get('event_time') or 
                                        event.get('log_time') or 
                                        event.get('updated_at'))
                            if event_time and isinstance(event_time, str):
                                if event_time > newest_since:
                                    newest_since = event_time
                        except Exception as e:
                            print(f"Warning: Could not parse event time: {e}")
    
                    # Check for next page token
                    next_token = (data.get('next') or 
                                data.get('next_token') or 
                                data.get('nextPageToken') or 
                                data.get('next_page_token'))
    
                    if isinstance(next_token, dict):
                        next_token = (next_token.get('token') or 
                                    next_token.get('cursor') or 
                                    next_token.get('value'))
    
                    if not next_token:
                        print("No more pages (no next token)")
                        return records, newest_since
    
                    page_token = str(next_token)
                    break
    
                except urllib3.exceptions.HTTPError as e:
                    if attempt < HTTP_RETRIES:
                        print(f"HTTP error (attempt {attempt + 1}/{HTTP_RETRIES}): {e}")
                        time.sleep(1 + attempt)
                        attempt += 1
                        continue
                    else:
                        print(f"Error fetching logs after {HTTP_RETRIES} retries: {e}")
                        return records, newest_since
                except Exception as e:
                    print(f"Error fetching logs: {e}")
                    return records, newest_since
    
        print(f"Retrieved {len(records)} total records from {page_num} pages")
        return records, newest_since
    
    • 2 つ目のファイル: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. [デプロイ] をクリックして、関数を保存してデプロイします。

  4. デプロイが完了するまで待ちます(2 ~ 3 分)。

Cloud Scheduler ジョブの作成

Cloud Scheduler は、定期的に Pub/Sub トピック(zerofox-logs-trigger)にメッセージをパブリッシュし、Cloud Run functions の関数をトリガーします。

  1. GCP Console で、[Cloud Scheduler] に移動します。
  2. [ジョブを作成] をクリックします。
  3. 次の構成情報を提供してください。

    設定
    名前 zerofox-logs-collector-hourly
    リージョン Cloud Run functions と同じリージョンを選択する
    周波数 0 * * * *(1 時間ごとに正時)
    タイムゾーン タイムゾーンを選択します(UTC を推奨)。
    ターゲット タイプ Pub/Sub
    トピック Pub/Sub トピック(zerofox-logs-trigger)を選択する
    メッセージ本文 {}(空の JSON オブジェクト)
  4. [作成] をクリックします。

スケジュールの頻度のオプション

  • ログの量とレイテンシの要件に基づいて頻度を選択します。

    頻度 CRON 式 ユースケース
    5 分毎 */5 * * * * 大容量、低レイテンシ
    15 分ごと */15 * * * * 検索量が普通
    1 時間ごと 0 * * * * 標準(推奨)
    6 時間ごと 0 */6 * * * 少量、バッチ処理
    毎日 0 0 * * * 履歴データの収集

統合をテストする

  1. Cloud Scheduler コンソールで、ジョブ(zerofox-logs-collector-hourly)を見つけます。
  2. [強制実行] をクリックして、ジョブを手動でトリガーします。
  3. 数秒待ちます。
  4. Cloud Run > サービスに移動します。
  5. 関数名(zerofox-logs-collector)をクリックします。
  6. [Logs] タブをクリックします。
  7. 関数が正常に実行されたことを確認します。次の内容を確認します。

    Fetching logs since YYYY-MM-DDTHH:MM:SSZ
    Page 1: Retrieved X events
    Wrote X records to gs://zerofox-platform-logs/zerofox/platform/logs_YYYYMMDD_HHMMSS.ndjson
    Successfully processed X records
    
  8. [Cloud Storage] > [バケット] に移動します。

  9. バケット名(zerofox-platform-logs)をクリックします。

  10. プレフィックス フォルダ(zerofox/platform/)に移動します。

  11. 現在のタイムスタンプで新しい .ndjson ファイルが作成されたことを確認します。

ログにエラーが表示された場合:

  • HTTP 401: 環境変数の API 認証情報を確認します。ZEROFOX_API_TOKEN が正しく、期限切れになっていないことを確認します。
  • HTTP 403: ZeroFox アカウントにアラートと CTI フィードに必要な権限があることを確認します。[設定] > [データ接続] > [API データフィード] に移動し、トークンの権限を確認します。
  • HTTP 404: デフォルトの /v1/alerts エンドポイントがテナントに対して正しくない可能性があります。ZeroFox API のドキュメントに合わせて URL_TEMPLATE 環境変数を設定するか、ZeroFox サポートにお問い合わせください。
  • HTTP 429: レート制限 - 関数は指数バックオフで自動的に再試行されます。
  • 環境変数が不足している: 必要な変数がすべて Cloud Run functions の構成で設定されていることを確認します。

Google SecOps サービス アカウントを取得する

Google SecOps は、一意のサービス アカウントを使用して GCS バケットからデータを読み取ります。このサービス アカウントにバケットへのアクセス権を付与する必要があります。

サービス アカウントのメールアドレスを取得する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: ZeroFox Platform Logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [ZeroFox Platform] を選択します。
  7. [サービス アカウントを取得する] をクリックします。一意のサービス アカウント メールアドレスが表示されます(例:)。

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. このメールアドレスをコピーして、次のステップで使用します。

Google SecOps サービス アカウントに IAM 権限を付与する

Google SecOps サービス アカウントには、GCS バケットに対する Storage オブジェクト閲覧者ロールが必要です。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名(zerofox-platform-logs)をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: Google SecOps サービス アカウントのメールアドレスを貼り付けます。
    • ロールを割り当てる: [ストレージ オブジェクト閲覧者] を選択します。
  6. [保存] をクリックします。

ZeroFox Platform のログを取り込むように Google SecOps でフィードを構成する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: ZeroFox Platform Logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [ZeroFox Platform] を選択します。
  7. [次へ] をクリックします。
  8. 次の入力パラメータの値を指定します。

    • ストレージ バケットの URL: 接頭辞パスを含む GCS バケット URI を入力します。

      gs://zerofox-platform-logs/zerofox/platform/
      
      • 次のように置き換えます。

        • zerofox-platform-logs: GCS バケット名。
        • zerofox/platform: ログが保存される接頭辞/フォルダパス。
    • Source deletion option: 必要に応じて削除オプションを選択します。

      • なし: 転送後にファイルを削除しません(テストにおすすめ)。
      • 転送されたファイルを削除する: 転送が完了した後にファイルを削除します。
      • 転送されたファイルと空のディレクトリを削除する: 転送が完了した後にファイルと空のディレクトリを削除します。

    • ファイルの最大経過日数: 指定した日数以内に変更されたファイルを含めます。デフォルトは 180 日です。

    • アセットの名前空間: アセットの名前空間

    • Ingestion labels: このフィードのイベントに適用されるラベル。

  9. [次へ] をクリックします。

  10. [Finalize] 画面で新しいフィードの設定を確認し、[送信] をクリックします。

ご不明な点がございましたら、コミュニティ メンバーや Google SecOps のプロフェッショナルから回答を得ることができます。