CrowdStrike FileVantage のログを収集する

以下でサポートされています。

このドキュメントでは、Google Cloud Storage を使用して CrowdStrike FileVantage ログを Google Security Operations に取り込む方法について説明します。CrowdStrike FileVantage は、環境全体にわたって重要なファイルとディレクトリの変更を追跡するファイル整合性モニタリング ソリューションです。

始める前に

次の前提条件を満たしていることを確認します。

  • Google SecOps インスタンス
  • Cloud Storage API が有効になっている GCP プロジェクト
  • GCS バケットを作成および管理する権限
  • GCS バケットの IAM ポリシーを管理する権限
  • Cloud Run サービス、Pub/Sub トピック、Cloud Scheduler ジョブを作成する権限
  • CrowdStrike Falcon Console への特権アクセス

Google Cloud Storage バケットを作成する

  1. Google Cloud Console に移動します。
  2. プロジェクトを選択するか、新しいプロジェクトを作成します。
  3. ナビゲーション メニューで、[Cloud Storage > バケット] に移動します。
  4. [バケットを作成] をクリックします。
  5. 次の構成情報を提供してください。

    設定
    バケットに名前を付ける グローバルに一意の名前(crowdstrike-filevantage-logs など)を入力します。
    ロケーション タイプ ニーズに基づいて選択します(リージョン、デュアルリージョン、マルチリージョン)。
    ロケーション ロケーションを選択します(例: us-central1)。
    ストレージ クラス Standard(頻繁にアクセスされるログにおすすめ)
    アクセス制御 均一(推奨)
    保護ツール 省略可: オブジェクトのバージョニングまたは保持ポリシーを有効にする
  6. [作成] をクリックします。

CrowdStrike FileVantage API 認証情報を収集する

  1. CrowdStrike Falcon Console にログインします。
  2. [サポートとリソース] > [API クライアントとキー] に移動します。
  3. [新しい API クライアントを追加] をクリックします。
  4. 次の構成の詳細を指定します。
    • クライアント名: わかりやすい名前を入力します(例: Google SecOps FileVantage Integration)。
    • 説明: 統合の目的の簡単な説明を入力します。
    • API スコープ: [Falcon FileVantage:read] を選択します。
  5. [Add] をクリックして処理を完了します。
  6. 次の詳細をコピーして安全な場所に保存します。

    • Client-ID
    • Client Secret
    • ベース URL(クラウド リージョンを決定します)

権限を確認する

アカウントに必要な権限があることを確認するには:

  1. CrowdStrike Falcon Console にログインします。
  2. [サポートとリソース] > [API クライアントとキー] に移動します。
  3. [API クライアントとキー] ページが表示され、新しい API クライアントを作成できる場合は、必要な権限があります。
  4. このページにアクセスできない場合は、CrowdStrike 管理者に連絡して Falcon 管理者ロールを付与してもらってください。

テスト API アクセス

  • 統合に進む前に、認証情報をテストします。

    # Replace with your actual credentials
    FALCON_CLIENT_ID="your-client-id"
    FALCON_CLIENT_SECRET="your-client-secret"
    FALCON_BASE_URL="https://api.crowdstrike.com"
    
    # Get OAuth token
    TOKEN=$(curl -s -X POST "${FALCON_BASE_URL}/oauth2/token" \
      -H "Content-Type: application/x-www-form-urlencoded" \
      -d "client_id=${FALCON_CLIENT_ID}&client_secret=${FALCON_CLIENT_SECRET}&grant_type=client_credentials" \
      | grep -o '"access_token":"[^"]*' | cut -d'"' -f4)
    
    # Test FileVantage API access
    curl -v -H "Authorization: Bearer ${TOKEN}" \
      "${FALCON_BASE_URL}/filevantage/queries/changes/v3?limit=1"
    

Cloud Run functions のサービス アカウントを作成する

Cloud Run 関数には、GCS バケットに書き込み、Pub/Sub によって呼び出される権限を持つサービス アカウントが必要です。

サービス アカウントの作成

  1. GCP Console で、[IAM と管理>サービス アカウント] に移動します。
  2. [サービス アカウントを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • サービス アカウント名: 「crowdstrike-filevantage-sa」と入力します。
    • サービス アカウントの説明: 「Service account for Cloud Run function to collect CrowdStrike FileVantage logs」と入力します。
  4. [作成して続行] をクリックします。
  5. [このサービス アカウントにプロジェクトへのアクセスを許可する] セクションで、次のロールを追加します。
    1. [ロールを選択] をクリックします。
    2. [ストレージ オブジェクト管理者] を検索して選択します。
    3. [+ 別のロールを追加] をクリックします。
    4. [Cloud Run 起動元] を検索して選択します。
    5. [+ 別のロールを追加] をクリックします。
    6. [Cloud Functions 起動元] を検索して選択します。
  6. [続行] をクリックします。
  7. [完了] をクリックします。

これらのロールは、次の目的で必要です。

  • Storage オブジェクト管理者: ログを GCS バケットに書き込み、状態ファイルを管理する
  • Cloud Run 起動元: Pub/Sub が関数を呼び出すことを許可する
  • Cloud Functions 起動元: 関数の呼び出しを許可する

GCS バケットに対する IAM 権限を付与する

GCS バケットに対する書き込み権限をサービス アカウントに付与します。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名(crowdstrike-filevantage-logs など)をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: サービス アカウントのメールアドレス(例: crowdstrike-filevantage-sa@PROJECT_ID.iam.gserviceaccount.com)を入力します。
    • ロールを割り当てる: [Storage オブジェクト管理者] を選択します。
  6. [保存] をクリックします。

Pub/Sub トピックの作成

Cloud Scheduler がパブリッシュし、Cloud Run functions がサブスクライブする Pub/Sub トピックを作成します。

  1. GCP Console で、[Pub/Sub> トピック] に移動します。
  2. [トピックを作成] をクリックします。
  3. 次の構成の詳細を指定します。
    • トピック ID: 「crowdstrike-filevantage-trigger」と入力します。
    • その他の設定はデフォルトのままにします。
  4. [作成] をクリックします。

ログを収集する Cloud Run 関数を作成する

Cloud Run 関数は、Cloud Scheduler からの Pub/Sub メッセージによってトリガーされ、CrowdStrike FileVantage API からログを取得して GCS に書き込みます。

  1. GCP Console で、[Cloud Run] に移動します。
  2. [サービスを作成] をクリックします。
  3. [関数] を選択します(インライン エディタを使用して関数を作成します)。
  4. [構成] セクションで、次の構成の詳細を指定します。

    設定
    サービス名 crowdstrike-filevantage-collector
    リージョン GCS バケットと一致するリージョンを選択します(例: us-central1)。
    ランタイム [Python 3.12] 以降を選択します。
  5. [トリガー(省略可)] セクションで、次の操作を行います。

    1. [+ トリガーを追加] をクリックします。
    2. [Cloud Pub/Sub] を選択します。
    3. [Cloud Pub/Sub トピックを選択してください] で、Pub/Sub トピック(crowdstrike-filevantage-trigger)を選択します。
    4. [保存] をクリックします。
  6. [認証] セクションで、次の操作を行います。

    1. [認証が必要] を選択します。
    2. Identity and Access Management(IAM)を確認します。
  7. 下にスクロールして、[コンテナ、ネットワーキング、セキュリティ] を開きます。

  8. [セキュリティ] タブに移動します。

    • サービス アカウント: サービス アカウントを選択します(crowdstrike-filevantage-sa)。
  9. [コンテナ] タブに移動します。

    1. [変数とシークレット] をクリックします。
    2. 環境変数ごとに [+ 変数を追加] をクリックします。
    変数名 値の例
    GCS_BUCKET crowdstrike-filevantage-logs
    GCS_PREFIX filevantage/
    STATE_KEY filevantage/state.json
    FALCON_CLIENT_ID your-client-id
    FALCON_CLIENT_SECRET your-client-secret
    FALCON_BASE_URL https://api.crowdstrike.com(US-1)/ https://api.us-2.crowdstrike.com(US-2)/ https://api.eu-1.crowdstrike.com(EU-1)
  10. [変数とシークレット] セクションで、[リクエスト] まで下にスクロールします。

    • リクエストのタイムアウト: 600 秒(10 分)を入力します。
  11. [設定] タブに移動します。

    • [リソース] セクションで次の操作を行います。
      • メモリ: 512 MiB 以上を選択します。
      • CPU: [1] を選択します。
  12. [リビジョン スケーリング] セクションで、次の操作を行います。

    • [インスタンスの最小数] に「0」と入力します。
    • インスタンスの最大数: 100 と入力します(または、予想される負荷に基づいて調整します)。
  13. [作成] をクリックします。

  14. サービスが作成されるまで待ちます(1 ~ 2 分)。

  15. サービスを作成すると、インライン コードエディタが自動的に開きます。

関数コードを追加する

  1. [関数のエントリ ポイント] に「main」と入力します。
  2. インライン コードエディタで、次の 2 つのファイルを作成します。

    • 最初のファイル: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch CrowdStrike FileVantage logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        # Get environment variables
        bucket_name = os.environ.get('GCS_BUCKET')
        prefix = os.environ.get('GCS_PREFIX', 'filevantage/')
        state_key = os.environ.get('STATE_KEY', 'filevantage/state.json')
        client_id = os.environ.get('FALCON_CLIENT_ID')
        client_secret = os.environ.get('FALCON_CLIENT_SECRET')
        base_url = os.environ.get('FALCON_BASE_URL')
    
        if not all([bucket_name, client_id, client_secret, base_url]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(bucket_name)
    
            # Get OAuth token
            token_url = f"{base_url}/oauth2/token"
            token_headers = {
                'Content-Type': 'application/x-www-form-urlencoded',
                'Accept': 'application/json'
            }
            token_data = f"client_id={client_id}&client_secret={client_secret}&grant_type=client_credentials"
    
            token_response = http.request(
                'POST',
                token_url,
                body=token_data.encode('utf-8'),
                headers=token_headers
            )
    
            if token_response.status != 200:
                print(f"Failed to get OAuth token: {token_response.status}")
                print(f"Response: {token_response.data.decode('utf-8')}")
                return
    
            token_data_json = json.loads(token_response.data.decode('utf-8'))
            access_token = token_data_json['access_token']
    
            # Get last checkpoint
            last_timestamp = get_last_checkpoint(bucket, state_key)
    
            # Fetch file changes using v3 endpoint (high volume query)
            changes_url = f"{base_url}/filevantage/queries/changes/v3"
            headers = {
                'Authorization': f'Bearer {access_token}',
                'Accept': 'application/json'
            }
    
            # Build query parameters
            params = []
            params.append('limit=5000')
            params.append('sort=action_timestamp|asc')
    
            if last_timestamp:
                params.append(f"filter=action_timestamp:>'{last_timestamp}'")
    
            query_url = f"{changes_url}?{'&'.join(params)}"
    
            backoff = 1.0
            max_retries = 3
    
            for attempt in range(max_retries):
                response = http.request('GET', query_url, headers=headers)
    
                if response.status == 429:
                    retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                    print(f"Rate limited (429). Retrying after {retry_after}s...")
                    time.sleep(retry_after)
                    backoff = min(backoff * 2, 30.0)
                    continue
    
                if response.status != 200:
                    print(f"Failed to query changes: {response.status}")
                    print(f"Response: {response.data.decode('utf-8')}")
                    return
    
                break
            else:
                print("Max retries exceeded")
                return
    
            response_data = json.loads(response.data.decode('utf-8'))
            change_ids = response_data.get('resources', [])
    
            if not change_ids:
                print("No new changes found")
                return
    
            # Get detailed change information using v2 endpoint
            details_url = f"{base_url}/filevantage/entities/changes/v2"
            batch_size = 500
            all_changes = []
            latest_timestamp = last_timestamp
    
            for i in range(0, len(change_ids), batch_size):
                batch_ids = change_ids[i:i + batch_size]
    
                # Build query string with multiple ids parameters
                ids_params = '&'.join([f'ids={id}' for id in batch_ids])
                details_query_url = f"{details_url}?{ids_params}"
    
                backoff = 1.0
                for attempt in range(max_retries):
                    details_response = http.request('GET', details_query_url, headers=headers)
    
                    if details_response.status == 429:
                        retry_after = int(details_response.headers.get('Retry-After', str(int(backoff))))
                        print(f"Rate limited (429). Retrying after {retry_after}s...")
                        time.sleep(retry_after)
                        backoff = min(backoff * 2, 30.0)
                        continue
    
                    if details_response.status == 200:
                        details_data = json.loads(details_response.data.decode('utf-8'))
                        changes = details_data.get('resources', [])
                        all_changes.extend(changes)
    
                        # Track latest timestamp
                        for change in changes:
                            change_time = change.get('action_timestamp')
                            if change_time and (not latest_timestamp or change_time > latest_timestamp):
                                latest_timestamp = change_time
                        break
                    else:
                        print(f"Failed to get change details (batch {i//batch_size + 1}): {details_response.status}")
                        break
    
            if all_changes:
                # Store logs in GCS
                timestamp = datetime.now(timezone.utc).strftime('%Y%m%d_%H%M%S')
                blob_name = f"{prefix}filevantage_changes_{timestamp}.json"
                blob = bucket.blob(blob_name)
                log_lines = '\n'.join(json.dumps(change) for change in all_changes)
                blob.upload_from_string(log_lines, content_type='application/json')
    
                # Update checkpoint
                save_checkpoint(bucket, state_key, latest_timestamp)
    
                print(f"Stored {len(all_changes)} changes in GCS: {blob_name}")
    
        except Exception as e:
            print(f"Error: {str(e)}")
            raise
    
    def get_last_checkpoint(bucket, key):
        """Get the last processed timestamp from GCS state file"""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                state = json.loads(state_data)
                return state.get('last_timestamp')
        except Exception as e:
            print(f"Error reading checkpoint: {e}")
        return None
    
    def save_checkpoint(bucket, key, timestamp):
        """Save the last processed timestamp to GCS state file"""
        try:
            state = {
                'last_timestamp': timestamp,
                'updated_at': datetime.now(timezone.utc).isoformat()
            }
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state),
                content_type='application/json'
            )
        except Exception as e:
            print(f"Error saving checkpoint: {e}")
    
    • 2 つ目のファイル: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. [デプロイ] をクリックして、関数を保存してデプロイします。

  4. デプロイが完了するまで待ちます(2 ~ 3 分)。

Cloud Scheduler ジョブの作成

Cloud Scheduler は、定期的に Pub/Sub トピックにメッセージをパブリッシュし、Cloud Run functions の関数をトリガーします。

  1. GCP Console で、[Cloud Scheduler] に移動します。
  2. [ジョブを作成] をクリックします。
  3. 次の構成情報を提供してください。

    設定
    名前 crowdstrike-filevantage-hourly
    リージョン Cloud Run functions と同じリージョンを選択する
    周波数 */15 * * * *(15 分ごと)
    タイムゾーン タイムゾーンを選択します(UTC を推奨)。
    ターゲット タイプ Pub/Sub
    トピック Pub/Sub トピック(crowdstrike-filevantage-trigger)を選択する
    メッセージ本文 {}(空の JSON オブジェクト)
  4. [作成] をクリックします。

スケジューラ ジョブをテストする

  1. Cloud Scheduler コンソールで、ジョブ(crowdstrike-filevantage-hourly)を見つけます。
  2. [強制実行] をクリックして手動でトリガーします。
  3. 数秒待ってから、[Cloud Run> サービス> crowdstrike-filevantage-collector > ログ] に移動します。
  4. 関数が正常に実行されたことを確認します。
  5. GCS バケット(crowdstrike-filevantage-logs)をチェックして、ログが書き込まれたことを確認します。

Google SecOps サービス アカウントを取得する

Google SecOps は、一意のサービス アカウントを使用して GCS バケットからデータを読み取ります。このサービス アカウントにバケットへのアクセス権を付与する必要があります。

サービス アカウントのメールアドレスを取得する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: CrowdStrike FileVantage logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [CrowdStrike Filevantage] を選択します。
  7. [サービス アカウントを取得する] をクリックします。一意のサービス アカウント メールアドレスが表示されます(例:)。

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. このメールアドレスをコピーして、次のステップで使用します。

Google SecOps サービス アカウントに IAM 権限を付与する

Google SecOps サービス アカウントには、GCS バケットに対する Storage オブジェクト閲覧者ロールが必要です。

  1. [Cloud Storage] > [バケット] に移動します。
  2. バケット名(crowdstrike-filevantage-logs など)をクリックします。
  3. [権限] タブに移動します。
  4. [アクセス権を付与] をクリックします。
  5. 次の構成の詳細を指定します。
    • プリンシパルを追加: Google SecOps サービス アカウントのメールアドレスを貼り付けます。
    • ロールを割り当てる: [ストレージ オブジェクト閲覧者] を選択します。
  6. [保存] をクリックします。

CrowdStrike FileVantage のログを取り込むように Google SecOps でフィードを構成する

  1. [SIEM 設定] > [フィード] に移動します。
  2. [Add New Feed] をクリックします。
  3. [単一フィードを設定] をクリックします。
  4. [フィード名] フィールドに、フィードの名前を入力します(例: CrowdStrike FileVantage logs)。
  5. [ソースタイプ] として [Google Cloud Storage V2] を選択します。
  6. [ログタイプ] として [CrowdStrike Filevantage] を選択します。
  7. [次へ] をクリックします。
  8. 次の入力パラメータの値を指定します。

    • ストレージ バケットの URL: 接頭辞パスを含む GCS バケット URI を入力します。

      gs://crowdstrike-filevantage-logs/filevantage/
      
      • 次のように置き換えます。

        • crowdstrike-filevantage-logs: GCS バケット名。
        • filevantage/: ログが保存される接頭辞/フォルダパス。
    • Source deletion option: 必要に応じて削除オプションを選択します。

      • なし: 転送後にファイルを削除しません(テストにおすすめ)。
      • 転送されたファイルを削除する: 転送が完了した後にファイルを削除します。
      • 転送されたファイルと空のディレクトリを削除する: 転送が完了した後にファイルと空のディレクトリを削除します。

    • ファイルの最大経過日数: 指定した日数以内に変更されたファイルを含めます。デフォルトは 180 日です。

    • アセットの名前空間: アセットの名前空間

    • Ingestion labels: このフィードのイベントに適用されるラベル。

  9. [次へ] をクリックします。

  10. [Finalize] 画面で新しいフィードの設定を確認し、[送信] をクリックします。

ご不明な点がございましたら、コミュニティ メンバーや Google SecOps のプロフェッショナルから回答を得ることができます。