Harness IO 監査ログを収集する

以下でサポートされています。

このドキュメントでは、Google Cloud Storage を使用して Harness IO 監査ログを Google Security Operations に取り込む方法について説明します。Harness は、ソフトウェア デリバリー、フィーチャー フラグ、クラウド費用管理、セキュリティ テスト用のツールを提供する継続的デリバリーと DevOps のプラットフォームです。

始める前に

次の前提条件を満たしていることを確認してください。

  • Google SecOps インスタンス
  • Cloud Storage API が有効になっている GCP プロジェクト
  • GCS バケットを作成および管理する権限
  • GCS バケットの IAM ポリシーを管理する権限
  • Cloud Run サービス、Pub/Sub トピック、Cloud Scheduler ジョブを作成する権限
  • 次の権限を持つ Harness への特権アクセス権:
    • API キーを作成する
    • アクセス監査ログ
    • アカウント設定を表示

Harness API 認証情報を収集する

Harness で API キーを作成する

  1. Harness Platform にログインします。
  2. ユーザー プロフィールをクリックします。
  3. [My API Keys] に移動します。
  4. [+ API キー] をクリックします。
  5. 次の構成の詳細を指定します。
    • 名前: わかりやすい名前を入力します(例: Google SecOps Integration)。
    • 説明: 説明(省略可)。
  6. [保存] をクリックします。
  7. [+ トークン] をクリックして、新しいトークンを作成します。
  8. 次の構成の詳細を指定します。
    • 名前: 「Chronicle Feed Token」と入力します。
    • 有効期限を設定: 適切な有効期限または [有効期限なし](本番環境用)を選択します。
  9. [Generate Token] をクリックします。
  10. トークン値をコピーして安全に保存します。このトークンは x-api-key ヘッダー値として使用されます。

Harness アカウント ID を取得する

  1. Harness Platform で、URL のアカウント ID をメモします。

URL の例: https://app.harness.io/ng/account/YOUR_ACCOUNT_ID/...YOUR_ACCOUNT_ID の部分はアカウント ID です。

または、[アカウント設定> 概要] に移動して、アカウント ID を確認することもできます。

  1. アカウント ID をコピーして保存し、Cloud Run functions の関数で使用します。

Google Cloud Storage バケットを作成する

  1. Google Cloud Console に移動します。
  2. プロジェクトを選択するか、新しいプロジェクトを作成します。
  3. ナビゲーション メニューで、[Cloud Storage > バケット] に移動します。
  4. [バケットを作成] をクリックします。
  5. 次の構成情報を提供してください。

    設定
    バケットに名前を付ける グローバルに一意の名前(harness-io-logs など)を入力します。
    ロケーション タイプ ニーズに基づいて選択します(リージョン、デュアルリージョン、マルチリージョン)。
    ロケーション ロケーションを選択します(例: us-central1)。
    ストレージ クラス Standard(頻繁にアクセスされるログにおすすめ)
    アクセス制御 均一(推奨)
    保護ツール 省略可: オブジェクトのバージョニングまたは保持ポリシーを有効にする
  6. [作成] をクリックします。

Cloud Run functions のサービス アカウントを作成する

Cloud Run 関数には、GCS バケットに書き込み、Pub/Sub によって呼び出される権限を持つサービス アカウントが必要です。

サービス アカウントの作成

  1. GCP Console で、[IAM と管理>サービス アカウント] に移動します。
  2. [サービス アカウントを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • サービス アカウント名: 「harness-audit-collector-sa」と入力します。
    • サービス アカウントの説明: 「Service account for Cloud Run function to collect Harness IO audit logs」と入力します。
  4. [作成して続行] をクリックします。
  5. [このサービス アカウントにプロジェクトへのアクセスを許可する] セクションで、次のロールを追加します。
    1. [ロールを選択] をクリックします。
    2. [ストレージ オブジェクト管理者] を検索して選択します。
    3. [+ 別のロールを追加] をクリックします。
    4. [Cloud Run 起動元] を検索して選択します。
    5. [+ 別のロールを追加] をクリックします。
    6. [Cloud Functions 起動元] を検索して選択します。
  6. [続行] をクリックします。
  7. [完了] をクリックします。

これらのロールは、次の目的で必要です。

  • Storage オブジェクト管理者: ログを GCS バケットに書き込み、状態ファイルを管理する
  • Cloud Run 起動元: Pub/Sub が関数を呼び出すことを許可する
  • Cloud Functions 起動元: 関数の呼び出しを許可する

GCS バケットに対する IAM 権限を付与する

GCS バケットに対する書き込み権限をサービス アカウントに付与します。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: サービス アカウントのメールアドレス(例: harness-audit-collector-sa@PROJECT_ID.iam.gserviceaccount.com)を入力します。
    • ロールを割り当てる: [Storage オブジェクト管理者] を選択します。
  6. [保存] をクリックします。

Pub/Sub トピックの作成

Cloud Scheduler がパブリッシュし、Cloud Run functions がサブスクライブする Pub/Sub トピックを作成します。

  1. GCP Console で、[Pub/Sub> トピック] に移動します。
  2. [トピックを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • トピック ID: 「harness-audit-trigger」と入力します。
    • その他の設定はデフォルトのままにします。
  4. [作成] をクリックします。

ログを収集する Cloud Run 関数を作成する

Cloud Run 関数は、Cloud Scheduler からの Pub/Sub メッセージによってトリガーされ、Harness API からログを取得して GCS に書き込みます。

  1. GCP Console で、[Cloud Run] に移動します。
  2. [サービスを作成] をクリックします。
  3. [関数] を選択します(インライン エディタを使用して関数を作成します)。
  4. [構成] セクションで、次の構成の詳細を指定します。

    設定
    サービス名 harness-audit-collector
    リージョン GCS バケットと一致するリージョンを選択します(例: us-central1)。
    ランタイム [Python 3.12] 以降を選択します。
  5. [トリガー(省略可)] セクションで、次の操作を行います。

    1. [+ トリガーを追加] をクリックします。
    2. [Cloud Pub/Sub] を選択します。
    3. [Cloud Pub/Sub トピックを選択してください] で、Pub/Sub トピック(harness-audit-trigger)を選択します。
    4. [保存] をクリックします。
  6. [認証] セクションで、次の操作を行います。

    1. [認証が必要] を選択します。
    2. Identity and Access Management(IAM)を確認します。
  7. 下にスクロールして、[コンテナ、ネットワーキング、セキュリティ] を開きます。

  8. [セキュリティ] タブに移動します。

    • サービス アカウント: サービス アカウントを選択します(harness-audit-collector-sa)。
  9. [コンテナ] タブに移動します。

    1. [変数とシークレット] をクリックします。
    2. 環境変数ごとに [+ 変数を追加] をクリックします。
    変数名 値の例 説明
    HARNESS_ACCOUNT_ID Harness アカウント ID Harness のアカウント ID
    HARNESS_API_KEY API キー トークン audit:read 権限を持つトークン
    GCS_BUCKET harness-io-logs GCS バケット名
    GCS_PREFIX harness/audit GCS オブジェクトの接頭辞
    STATE_KEY harness/audit/state.json GCS の状態ファイルのパス
    • 省略可能な環境変数:
    変数名 デフォルト値 説明
    HARNESS_API_BASE https://app.harness.io Harness API ベース URL(セルフホスト インスタンスのオーバーライド)
    PAGE_SIZE 50 ページあたりのイベント数(最大 100)
    START_MINUTES_BACK 60 最初のルックバック期間(分単位)
    FILTER_MODULES なし カンマ区切りのモジュール(例: CD,CI,CE)
    FILTER_ACTIONS なし カンマ区切りのアクション(例: CREATE,UPDATE,DELETE)
    STATIC_FILTER なし 事前定義されているフィルタ: EXCLUDE_LOGIN_EVENTS または EXCLUDE_SYSTEM_EVENTS
    MAX_RETRIES 3 レート制限の最大再試行回数
  10. [変数とシークレット] タブで [リクエスト] まで下にスクロールします。

    • リクエストのタイムアウト: 600 秒(10 分)を入力します。
  11. [コンテナ] の [設定] タブに移動します。

    • [リソース] セクションで次の操作を行います。
      • メモリ: 512 MiB 以上を選択します。
      • CPU: [1] を選択します。
    • [完了] をクリックします。
  12. [実行環境] までスクロールします。

    • [デフォルト](推奨)を選択します。
  13. [リビジョン スケーリング] セクションで、次の操作を行います。

    • [インスタンスの最小数] に「0」と入力します。
    • インスタンスの最大数: 100 と入力します(または、予想される負荷に基づいて調整します)。
  14. [作成] をクリックします。

  15. サービスが作成されるまで待ちます(1 ~ 2 分)。

  16. サービスを作成すると、インライン コードエディタが自動的に開きます。

関数コードを追加する

  1. [関数のエントリ ポイント] に「main」と入力します。
  2. インライン コードエディタで、次の 2 つのファイルを作成します。

    • 最初のファイル: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timedelta, timezone
    import time
    
    # Initialize HTTP client
    http = urllib3.PoolManager()
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    # Configuration from Environment Variables
    API_BASE = os.environ.get("HARNESS_API_BASE", "https://app.harness.io").rstrip("/")
    ACCOUNT_ID = os.environ["HARNESS_ACCOUNT_ID"]
    API_KEY = os.environ["HARNESS_API_KEY"]
    BUCKET = os.environ["GCS_BUCKET"]
    PREFIX = os.environ.get("GCS_PREFIX", "harness/audit").strip("/")
    STATE_KEY = os.environ.get("STATE_KEY", "harness/audit/state.json")
    PAGE_SIZE = min(int(os.environ.get("PAGE_SIZE", "50")), 100)
    START_MINUTES_BACK = int(os.environ.get("START_MINUTES_BACK", "60"))
    
    # Optional filters
    FILTER_MODULES = os.environ.get("FILTER_MODULES", "").split(",") if os.environ.get("FILTER_MODULES") else None
    FILTER_ACTIONS = os.environ.get("FILTER_ACTIONS", "").split(",") if os.environ.get("FILTER_ACTIONS") else None
    STATIC_FILTER = os.environ.get("STATIC_FILTER")
    MAX_RETRIES = int(os.environ.get("MAX_RETRIES", "3"))
    
    # HTTP headers for Harness API
    HDRS = {
        "x-api-key": API_KEY,
        "Content-Type": "application/json",
        "Accept": "application/json",
    }
    
    def read_state(bucket):
        """Read checkpoint state from GCS."""
        try:
            blob = bucket.blob(STATE_KEY)
            if blob.exists():
                state_data = blob.download_as_text()
                state = json.loads(state_data)
                since_ms = state.get("since")
                page_token = state.get("pageToken")
                print(f"State loaded: since={since_ms}, pageToken={page_token}")
                return since_ms, page_token
        except Exception as e:
            print(f"Warning: Could not load state: {e}")
    
        print("No state file found, starting fresh collection")
        start_time = datetime.now(timezone.utc) - timedelta(minutes=START_MINUTES_BACK)
        since_ms = int(start_time.timestamp() * 1000)
        print(f"Initial since timestamp: {since_ms} ({start_time.isoformat()})")
        return since_ms, None
    
    def write_state(bucket, since_ms, page_token=None):
        """Write checkpoint state to GCS."""
        state = {
            "since": since_ms,
            "pageToken": page_token,
            "lastRun": int(time.time() * 1000),
            "lastRunISO": datetime.now(timezone.utc).isoformat()
        }
        try:
            blob = bucket.blob(STATE_KEY)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type="application/json"
            )
            print(f"State saved: since={since_ms}, pageToken={page_token}")
        except Exception as e:
            print(f"Error writing state: {e}")
            raise
    
    def fetch_harness_audits(since_ms, page_token=None, retry_count=0):
        """
        Fetch audit logs from Harness API with retry logic.
        API Endpoint: POST /audit/api/audits/listV2
        """
        try:
            # Build URL with query parameters
            url = (
                f"{API_BASE}/audit/api/audits/listV2"
                f"?accountIdentifier={ACCOUNT_ID}"
                f"&pageSize={PAGE_SIZE}"
            )
            if page_token:
                url += f"&pageToken={page_token}"
    
            print(f"Fetching from: {url[:100]}...")
    
            # Build request body with time filter and optional filters
            body_data = {
                "startTime": since_ms,
                "endTime": int(time.time() * 1000),
                "filterType": "Audit"
            }
    
            if FILTER_MODULES:
                body_data["modules"] = [m.strip() for m in FILTER_MODULES if m.strip()]
                print(f"Applying module filter: {body_data['modules']}")
    
            if FILTER_ACTIONS:
                body_data["actions"] = [a.strip() for a in FILTER_ACTIONS if a.strip()]
                print(f"Applying action filter: {body_data['actions']}")
    
            if STATIC_FILTER:
                body_data["staticFilter"] = STATIC_FILTER
                print(f"Applying static filter: {STATIC_FILTER}")
    
            # Make POST request
            response = http.request(
                'POST',
                url,
                body=json.dumps(body_data).encode('utf-8'),
                headers=HDRS,
                timeout=30.0
            )
    
            resp_data = json.loads(response.data.decode('utf-8'))
    
            if "status" not in resp_data:
                print(f"Response missing 'status' field: {response.data[:200]}")
    
            # Check response status
            if resp_data.get("status") != "SUCCESS":
                error_msg = resp_data.get("message", "Unknown error")
                raise Exception(f"API returned status: {resp_data.get('status')} - {error_msg}")
    
            # Extract data from response structure
            data_obj = resp_data.get("data", {})
            if not data_obj:
                print("Response 'data' object is empty or missing")
    
            events = data_obj.get("content", [])
            has_next = data_obj.get("hasNext", False)
            next_token = data_obj.get("pageToken")
    
            print(f"API response: {len(events)} events, hasNext={has_next}, pageToken={next_token}")
    
            if not events and data_obj:
                print(f"Empty events but data present. Data keys: {list(data_obj.keys())}")
    
            return {
                "events": events,
                "hasNext": has_next,
                "pageToken": next_token
            }
    
        except Exception as e:
            if hasattr(e, 'status') and e.status == 429:
                retry_after = 60
                print(f"Rate limit exceeded. Retry after {retry_after} seconds (attempt {retry_count + 1}/{MAX_RETRIES})")
                if retry_count < MAX_RETRIES:
                    print(f"Waiting {retry_after} seconds before retry...")
                    time.sleep(retry_after)
                    print(f"Retrying request (attempt {retry_count + 2}/{MAX_RETRIES})")
                    return fetch_harness_audits(since_ms, page_token, retry_count + 1)
                else:
                    raise Exception(f"Max retries ({MAX_RETRIES}) exceeded for rate limiting")
            print(f"Error in fetch_harness_audits: {e}")
            raise
    
    def upload_to_gcs(bucket, events):
        """Upload audit events to GCS in JSONL format."""
        if not events:
            print("No events to upload")
            return None
    
        try:
            # Create JSONL content (one JSON object per line)
            jsonl_lines = [json.dumps(event) for event in events]
            jsonl_content = "\n".join(jsonl_lines)
    
            # Generate GCS key with timestamp
            timestamp = datetime.now(timezone.utc)
            key = (
                f"{PREFIX}/"
                f"{timestamp:%Y/%m/%d}/"
                f"harness-audit-{timestamp:%Y%m%d-%H%M%S}.jsonl"
            )
    
            # Upload to GCS
            blob = bucket.blob(key)
            blob.upload_from_string(
                jsonl_content,
                content_type="application/x-ndjson"
            )
            blob.metadata = {
                "event-count": str(len(events)),
                "source": "harness-audit-function",
                "collection-time": timestamp.isoformat()
            }
            blob.patch()
    
            print(f"Uploaded {len(events)} events to gs://{BUCKET}/{key}")
            return key
    
        except Exception as e:
            print(f"Error uploading to GCS: {e}")
            raise
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch Harness audit logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
        print("=== Harness Audit Collection Started ===")
        print(f"Configuration: API_BASE={API_BASE}, ACCOUNT_ID={ACCOUNT_ID[:8]}..., PAGE_SIZE={PAGE_SIZE}")
    
        if FILTER_MODULES:
            print(f"Module filter enabled: {FILTER_MODULES}")
        if FILTER_ACTIONS:
            print(f"Action filter enabled: {FILTER_ACTIONS}")
        if STATIC_FILTER:
            print(f"Static filter enabled: {STATIC_FILTER}")
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(BUCKET)
    
            # Step 1: Read checkpoint state
            since_ms, page_token = read_state(bucket)
    
            if page_token:
                print("Resuming pagination from saved pageToken")
            else:
                since_dt = datetime.fromtimestamp(since_ms / 1000, tz=timezone.utc)
                print(f"Starting new collection from: {since_dt.isoformat()}")
    
            # Step 2: Collect all events with pagination
            all_events = []
            current_page_token = page_token
            page_count = 0
            max_pages = 100
            has_next = True
    
            while has_next and page_count < max_pages:
                page_count += 1
                print(f"--- Fetching page {page_count} ---")
    
                # Fetch one page of results
                result = fetch_harness_audits(since_ms, current_page_token)
    
                # Extract events
                events = result.get("events", [])
                all_events.extend(events)
                print(f"Page {page_count}: {len(events)} events (total: {len(all_events)})")
    
                # Check pagination status
                has_next = result.get("hasNext", False)
                current_page_token = result.get("pageToken")
    
                if not has_next:
                    print("Pagination complete (hasNext=False)")
                    break
    
                if not current_page_token:
                    print("hasNext=True but no pageToken, stopping pagination")
                    break
    
                # Small delay between pages to avoid rate limiting
                time.sleep(0.5)
    
            if page_count >= max_pages:
                print(f"Reached max pages limit ({max_pages}), stopping")
    
            # Step 3: Upload collected events to GCS
            if all_events:
                gcs_key = upload_to_gcs(bucket, all_events)
                print(f"Successfully uploaded {len(all_events)} total events")
            else:
                print("No new events to upload")
                gcs_key = None
    
            # Step 4: Update checkpoint state
            if not has_next:
                # Pagination complete - update since to current time for next run
                new_since = int(time.time() * 1000)
                write_state(bucket, new_since, None)
                print(f"Pagination complete, state updated with new since={new_since}")
            else:
                # Pagination incomplete - save pageToken for continuation
                write_state(bucket, since_ms, current_page_token)
                print("Pagination incomplete, saved pageToken for next run")
    
            # Step 5: Log result
            result = {
                "status": "Success",
                "eventsCollected": len(all_events),
                "pagesProcessed": page_count,
                "paginationComplete": not has_next,
                "gcsKey": gcs_key,
                "filters": {
                    "modules": FILTER_MODULES,
                    "actions": FILTER_ACTIONS,
                    "staticFilter": STATIC_FILTER
                }
            }
            print(f"Collection completed: {json.dumps(result)}")
    
        except Exception as e:
            print(f"Collection failed: {e}")
            raise
        finally:
            print("=== Harness Audit Collection Finished ===")
    
    • 2 つ目のファイル: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. [デプロイ] をクリックして、関数を保存してデプロイします。

  4. デプロイが完了するまで待ちます(2 ~ 3 分)。

Cloud Scheduler ジョブの作成

Cloud Scheduler は、定期的に Pub/Sub トピックにメッセージをパブリッシュし、Cloud Run functions の関数をトリガーします。

  1. GCP Console で、[Cloud Scheduler] に移動します。
  2. [ジョブを作成] をクリックします。
  3. 次の構成情報を提供してください。

    設定
    名前 harness-audit-hourly
    リージョン Cloud Run functions と同じリージョンを選択する
    周波数 0 * * * *(1 時間ごとに正時)
    タイムゾーン タイムゾーンを選択します(UTC を推奨)。
    ターゲット タイプ Pub/Sub
    トピック Pub/Sub トピック(harness-audit-trigger)を選択する
    メッセージ本文 {}(空の JSON オブジェクト)
  4. [作成] をクリックします。

スケジュールの頻度のオプション

  • ログの量とレイテンシの要件に基づいて頻度を選択します。

    頻度 CRON 式 ユースケース
    5 分毎 */5 * * * * 大容量、低レイテンシ
    15 分ごと */15 * * * * 検索量が普通
    1 時間ごと 0 * * * * 標準(推奨)
    6 時間ごと 0 */6 * * * 少量、バッチ処理
    毎日 0 0 * * * 履歴データの収集

統合をテストする

  1. Cloud Scheduler コンソールで、ジョブを見つけます。
  2. [強制実行] をクリックして、ジョブを手動でトリガーします。
  3. 数秒待ちます。
  4. Cloud Run > サービスに移動します。
  5. 関数名(harness-audit-collector)をクリックします。
  6. [Logs] タブをクリックします。
  7. 関数が正常に実行されたことを確認します。次の内容を確認します。

    === Harness Audit Collection Started ===
    State loaded: since=... or No state file found, starting fresh collection
    --- Fetching page 1 ---
    API response: X events, hasNext=...
    Uploaded X events to gs://harness-io-logs/harness/audit/...
    Successfully processed X records
    === Harness Audit Collection Finished ===
    
  8. [Cloud Storage] > [バケット] に移動します。

  9. バケット名をクリックします。

  10. プレフィックス フォルダ(harness/audit/)に移動します。

  11. 現在のタイムスタンプで新しい .jsonl ファイルが作成されたことを確認します。

ログにエラーが表示された場合:

  • HTTP 401: 環境変数で API 認証情報を確認する
  • HTTP 403: アカウントに必要な権限があることを確認する
  • HTTP 429: レート制限 - 関数はバックオフで自動的に再試行されます
  • 環境変数が不足している: 必要な変数がすべて設定されていることを確認します

Google SecOps サービス アカウントを取得する

Google SecOps は、一意のサービス アカウントを使用して GCS バケットからデータを読み取ります。このサービス アカウントにバケットへのアクセス権を付与する必要があります。

サービス アカウントのメールアドレスを取得する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: Harness Audit Logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [Harness IO] を選択します。
  7. [サービス アカウントを取得する] をクリックします。一意のサービス アカウント メールアドレスが表示されます(例:)。

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. このメールアドレスをコピーして、次のステップで使用します。

Google SecOps サービス アカウントに IAM 権限を付与する

Google SecOps サービス アカウントには、GCS バケットに対する Storage オブジェクト閲覧者ロールが必要です。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: Google SecOps サービス アカウントのメールアドレスを貼り付けます。
    • ロールを割り当てる: [ストレージ オブジェクト閲覧者] を選択します。
  6. [保存] をクリックします。

Harness IO のログを取り込むように Google SecOps でフィードを構成する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: Harness Audit Logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [Harness IO] を選択します。
  7. [次へ] をクリックします。
  8. 次の入力パラメータの値を指定します。

    • ストレージ バケットの URL: 接頭辞パスを含む GCS バケット URI を入力します。

      gs://harness-io-logs/harness/audit/
      
      • 次のように置き換えます。

        • harness-io-logs: GCS バケット名。
        • harness/audit: ログが保存される接頭辞/フォルダパス。
      • 例:

        • ルートバケット: gs://company-logs/
        • 接頭辞あり: gs://company-logs/harness-logs/
        • サブフォルダあり: gs://company-logs/harness/audit/
    • Source deletion option: 必要に応じて削除オプションを選択します。

      • なし: 転送後にファイルを削除しません(テストにおすすめ)。
      • 転送されたファイルを削除する: 転送が完了した後にファイルを削除します。
      • 転送されたファイルと空のディレクトリを削除する: 転送が完了した後にファイルと空のディレクトリを削除します。

    • ファイルの最大経過日数: 指定した日数以内に変更されたファイルを含めます。デフォルトは 180 日です。

    • アセットの名前空間: アセットの名前空間。「harness.audit」と入力します。

    • Ingestion labels: このフィードのイベントに適用されるラベル。

  9. [次へ] をクリックします。

  10. [Finalize] 画面で新しいフィードの設定を確認し、[送信] をクリックします。

ご不明な点がございましたら、コミュニティ メンバーや Google SecOps のプロフェッショナルから回答を得ることができます。