收集 ZeroFox 平台日志

支持的平台:

本文档介绍了如何使用 Google Cloud Storage 将 ZeroFox 平台日志提取到 Google Security Operations。ZeroFox 平台通过监控和分析社交媒体、移动应用、云、电子邮件和其他数字渠道中的威胁,提供数字风险防护。

准备工作

确保您满足以下前提条件:

  • Google SecOps 实例
  • 已启用 Cloud Storage API 的 GCP 项目
  • 创建和管理 GCS 存储分区的权限
  • 管理 GCS 存储分区的 IAM 政策的权限
  • 创建 Cloud Run 服务、Pub/Sub 主题和 Cloud Scheduler 作业的权限
  • 对 ZeroFox Platform 租户的特权访问权限

创建 Google Cloud Storage 存储分区

  1. 前往 Google Cloud 控制台
  2. 选择您的项目或创建新项目。
  3. 在导航菜单中,依次前往 Cloud Storage > 存储分区
  4. 点击创建存储分区
  5. 提供以下配置详细信息:

    设置
    为存储分区命名 输入一个全局唯一的名称(例如 zerofox-platform-logs
    位置类型 根据您的需求进行选择(区域级、双区域级、多区域级)
    位置 选择相应位置(例如 us-central1
    存储类别 标准(建议用于经常访问的日志)
    访问权限控制 统一(推荐)
    保护工具 可选:启用对象版本控制或保留政策
  6. 点击创建

收集 ZeroFox Platform 凭据

获取 ZeroFox 个人访问令牌

  1. 访问 https://cloud.zerofox.com,登录 ZeroFox Platform。
  2. 依次前往设置 > 数据连接 > API 数据 Feed
    • 直接网址(登录后):https://cloud.zerofox.com/data_connectors/api
    • 注意:如果您未看到此菜单项,请与您的 ZeroFox 管理员联系以获取访问权限。根据您的租户界面版本,该菜单也可能标记为数据连接器 > API 数据 Feed
  3. 点击生成令牌创建个人访问令牌
  4. 提供以下配置详细信息:
    • 名称:输入一个描述性名称(例如 Google SecOps GCS Ingestion)。
    • 过期时间:根据组织的安全政策选择轮替周期。
    • 权限/Feed:选择以下内容的读取权限:
      • 提醒
      • CTI Feed
      • 您要导出的其他数据类型
  5. 点击生成
  6. 复制生成的个人访问令牌并将其保存在安全的位置(您将无法再次查看该令牌)。
  7. 保存 ZEROFOX_BASE_URLhttps://api.zerofox.com(大多数租户的默认值)。

验证权限

如需验证账号是否具有所需权限,请执行以下操作:

  1. 登录 ZeroFox Platform。
  2. 依次前往设置 (⚙️) > 数据连接 > API 数据 Feed
  3. 如果您能看到 API 数据 Feed 部分并生成令牌,则表明您拥有所需的权限。
  4. 如果您看不到此选项,请与您的管理员联系,以获取 API 访问权限。

测试 API 访问权限

  • 在继续进行集成之前,请先测试您的凭据:

    # Replace with your actual credentials
    ZEROFOX_API_TOKEN="your-personal-access-token"
    ZEROFOX_BASE_URL="https://api.zerofox.com"
    
    # Test API access (example endpoint - adjust based on your data type)
    curl -v -H "Authorization: Bearer $ZEROFOX_API_TOKEN" \
      -H "Accept: application/json" \
      "$ZEROFOX_BASE_URL/v1/alerts?limit=1"
    

为 Cloud Run 函数创建服务账号

Cloud Run 函数需要一个服务账号,该账号具有向 GCS 存储分区写入内容以及被 Pub/Sub 调用的权限。

创建服务账号

  1. GCP 控制台中,依次前往 IAM 和管理 > 服务账号
  2. 点击创建服务账号
  3. 提供以下配置详细信息:
    • 服务账号名称:输入 zerofox-logs-collector-sa
    • 服务账号说明:输入 Service account for Cloud Run function to collect ZeroFox Platform logs
  4. 点击创建并继续
  5. 向此服务账号授予对项目的访问权限部分中,添加以下角色:
    1. 点击选择角色
    2. 搜索并选择 Storage Object Admin
    3. 点击 + 添加其他角色
    4. 搜索并选择 Cloud Run Invoker
    5. 点击 + 添加其他角色
    6. 搜索并选择 Cloud Functions Invoker
  6. 点击继续
  7. 点击完成

必须拥有这些角色,才能:

  • Storage Object Admin:将日志写入 GCS 存储分区并管理状态文件
  • Cloud Run Invoker:允许 Pub/Sub 调用函数
  • Cloud Functions Invoker:允许调用函数

授予对 GCS 存储分区的 IAM 权限

向服务账号 (zerofox-logs-collector-sa) 授予对 GCS 存储分区的写入权限:

  1. 前往 Cloud Storage > 存储分区
  2. 点击您的存储分区名称(例如 zerofox-platform-logs)。
  3. 前往权限标签页。
  4. 点击授予访问权限
  5. 提供以下配置详细信息:
    • 添加主账号:输入服务账号电子邮件地址(例如 zerofox-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com)。
    • 分配角色:选择 Storage Object Admin
  6. 点击保存

创建发布/订阅主题

创建一个 Pub/Sub 主题,供 Cloud Scheduler 发布消息,并供 Cloud Run 函数订阅。

  1. GCP 控制台中,前往 Pub/Sub > 主题
  2. 点击创建主题
  3. 提供以下配置详细信息:
    • 主题 ID:输入 zerofox-logs-trigger
    • 将其他设置保留为默认值。
  4. 点击创建

创建 Cloud Run 函数以收集日志

Cloud Run 函数由来自 Cloud Scheduler 的 Pub/Sub 消息触发,用于从 ZeroFox Platform API 中提取日志并将其写入 GCS。

  1. GCP 控制台中,前往 Cloud Run
  2. 点击创建服务
  3. 选择函数(使用内嵌编辑器创建函数)。
  4. 配置部分中,提供以下配置详细信息:

    设置
    Service 名称 zerofox-logs-collector
    区域 选择与您的 GCS 存储分区匹配的区域(例如 us-central1
    运行时 选择 Python 3.12 或更高版本
  5. 触发器(可选)部分中:

    1. 点击 + 添加触发器
    2. 选择 Cloud Pub/Sub
    3. 选择 Cloud Pub/Sub 主题中,选择 Pub/Sub 主题 (zerofox-logs-trigger)。
    4. 点击保存
  6. 身份验证部分中:

    1. 选择需要进行身份验证
    2. 检查 Identity and Access Management (IAM)
  7. 向下滚动并展开容器、网络、安全性

  8. 前往安全标签页:

    • 服务账号:选择服务账号 (zerofox-logs-collector-sa)。
  9. 前往容器标签页:

    1. 点击变量和密钥
    2. 为每个环境变量点击 + 添加变量
    变量名称 示例值 说明
    GCS_BUCKET zerofox-platform-logs GCS 存储分区名称
    GCS_PREFIX zerofox/platform 日志文件的前缀
    STATE_KEY zerofox/platform/state.json 状态文件路径
    ZEROFOX_BASE_URL https://api.zerofox.com API 基本网址
    ZEROFOX_API_TOKEN your-zerofox-personal-access-token 个人访问令牌
    LOOKBACK_HOURS 24 初始回溯期
    PAGE_SIZE 200 每页记录数
    MAX_PAGES 20 每次运行的页数上限
    HTTP_TIMEOUT 60 HTTP 请求超时时间(以秒为单位)
    HTTP_RETRIES 3 HTTP 重试次数
    URL_TEMPLATE (可选) 包含 {SINCE}{PAGE_TOKEN}{PAGE_SIZE} 的自定义网址模板
  10. 变量和 Secret 部分中,向下滚动到请求

    • 请求超时:输入 600 秒(10 分钟)。
  11. 前往设置标签页:

    • 资源部分中:
      • 内存:选择 512 MiB 或更高值。
      • CPU:选择 1
  12. 修订版本扩缩部分中:

    • 实例数下限:输入 0
    • 实例数上限:输入 100(或根据预期负载进行调整)。
  13. 点击创建

  14. 等待服务创建完成(1-2 分钟)。

  15. 创建服务后,系统会自动打开内嵌代码编辑器

添加函数代码

  1. 函数入口点中输入 main
  2. 在内嵌代码编辑器中,创建两个文件:

    • 第一个文件:main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone, timedelta
    import time
    import urllib.parse
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    # Environment variables
    GCS_BUCKET = os.environ.get('GCS_BUCKET')
    GCS_PREFIX = os.environ.get('GCS_PREFIX', 'zerofox/platform')
    STATE_KEY = os.environ.get('STATE_KEY', 'zerofox/platform/state.json')
    ZEROFOX_BASE_URL = os.environ.get('ZEROFOX_BASE_URL', 'https://api.zerofox.com')
    ZEROFOX_API_TOKEN = os.environ.get('ZEROFOX_API_TOKEN')
    LOOKBACK_HOURS = int(os.environ.get('LOOKBACK_HOURS', '24'))
    PAGE_SIZE = int(os.environ.get('PAGE_SIZE', '200'))
    MAX_PAGES = int(os.environ.get('MAX_PAGES', '20'))
    HTTP_TIMEOUT = int(os.environ.get('HTTP_TIMEOUT', '60'))
    HTTP_RETRIES = int(os.environ.get('HTTP_RETRIES', '3'))
    URL_TEMPLATE = os.environ.get('URL_TEMPLATE', '')
    
    def parse_datetime(value: str) -> datetime:
        """Parse ISO datetime string to datetime object."""
        if value.endswith("Z"):
            value = value[:-1] + "+00:00"
        return datetime.fromisoformat(value)
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch ZeroFox Platform logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        if not all([GCS_BUCKET, ZEROFOX_BASE_URL, ZEROFOX_API_TOKEN]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(GCS_BUCKET)
    
            # Load state
            state = load_state(bucket, STATE_KEY)
    
            # Determine time window
            now = datetime.now(timezone.utc)
            last_time = None
    
            if isinstance(state, dict) and state.get("last_since"):
                try:
                    last_time = parse_datetime(state["last_since"])
                    # Overlap by 2 minutes to catch any delayed events
                    last_time = last_time - timedelta(minutes=2)
                except Exception as e:
                    print(f"Warning: Could not parse last_since: {e}")
    
            if last_time is None:
                last_time = now - timedelta(hours=LOOKBACK_HOURS)
    
            since_iso = last_time.strftime('%Y-%m-%dT%H:%M:%SZ')
            print(f"Fetching logs since {since_iso}")
    
            # Fetch logs
            records, newest_since = fetch_logs(
                api_base=ZEROFOX_BASE_URL,
                api_token=ZEROFOX_API_TOKEN,
                since=since_iso,
                page_size=PAGE_SIZE,
                max_pages=MAX_PAGES,
            )
    
            if not records:
                print("No new log records found.")
                save_state(bucket, STATE_KEY, since_iso)
                return
    
            # Write to GCS as NDJSON
            timestamp = now.strftime('%Y%m%d_%H%M%S')
            object_key = f"{GCS_PREFIX}/logs_{timestamp}.ndjson"
            blob = bucket.blob(object_key)
    
            ndjson = '\n'.join([json.dumps(record, ensure_ascii=False) for record in records]) + '\n'
            blob.upload_from_string(ndjson, content_type='application/x-ndjson')
    
            print(f"Wrote {len(records)} records to gs://{GCS_BUCKET}/{object_key}")
    
            # Update state with newest timestamp
            if newest_since:
                save_state(bucket, STATE_KEY, newest_since)
            else:
                save_state(bucket, STATE_KEY, since_iso)
    
            print(f"Successfully processed {len(records)} records")
    
        except Exception as e:
            print(f'Error processing logs: {str(e)}')
            raise
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f"Warning: Could not load state: {e}")
    
        return {}
    
    def save_state(bucket, key, last_since: str):
        """Save the last since timestamp to GCS state file."""
        try:
            state = {'last_since': last_since}
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state, indent=2),
                content_type='application/json'
            )
            print(f"Saved state: last_since={last_since}")
        except Exception as e:
            print(f"Warning: Could not save state: {e}")
    
    def fetch_logs(api_base: str, api_token: str, since: str, page_size: int, max_pages: int):
        """
        Fetch logs from ZeroFox Platform API with pagination and rate limiting.
    
        Args:
            api_base: API base URL
            api_token: Personal access token
            since: ISO timestamp for filtering logs
            page_size: Number of records per page
            max_pages: Maximum pages to fetch
    
        Returns:
            Tuple of (records list, newest_since ISO string)
        """
        # Use URL_TEMPLATE if provided, otherwise construct default alerts endpoint
        if URL_TEMPLATE:
            base_url = URL_TEMPLATE.replace("{SINCE}", urllib.parse.quote(since))
        else:
            base_url = f"{api_base}/v1/alerts?since={urllib.parse.quote(since)}"
    
        headers = {
            'Authorization': f'Bearer {api_token}',
            'Accept': 'application/json',
            'Content-Type': 'application/json',
            'User-Agent': 'GoogleSecOps-ZeroFoxCollector/1.0'
        }
    
        records = []
        newest_since = since
        page_num = 0
        page_token = ""
        backoff = 1.0
    
        while page_num < max_pages:
            page_num += 1
    
            # Construct URL with pagination
            if URL_TEMPLATE:
                url = (base_url
                       .replace("{PAGE_TOKEN}", urllib.parse.quote(page_token))
                       .replace("{PAGE_SIZE}", str(page_size)))
            else:
                url = f"{base_url}&limit={page_size}"
                if page_token:
                    url += f"&page_token={urllib.parse.quote(page_token)}"
    
            attempt = 0
            while attempt <= HTTP_RETRIES:
                try:
                    response = http.request('GET', url, headers=headers, timeout=HTTP_TIMEOUT)
    
                    # Handle rate limiting with exponential backoff
                    if response.status == 429:
                        retry_after = int(response.headers.get('Retry-After', str(int(backoff))))
                        print(f"Rate limited (429). Retrying after {retry_after}s...")
                        time.sleep(retry_after)
                        backoff = min(backoff * 2, 30.0)
                        attempt += 1
                        continue
    
                    backoff = 1.0
    
                    if response.status != 200:
                        print(f"HTTP Error: {response.status}")
                        response_text = response.data.decode('utf-8')
                        print(f"Response body: {response_text}")
                        return records, newest_since
    
                    data = json.loads(response.data.decode('utf-8'))
    
                    # Extract results (try multiple possible keys)
                    page_results = []
                    for key in ('results', 'data', 'alerts', 'items', 'logs', 'events'):
                        if isinstance(data.get(key), list):
                            page_results = data[key]
                            break
    
                    if not page_results:
                        print(f"No more results (empty page)")
                        return records, newest_since
    
                    print(f"Page {page_num}: Retrieved {len(page_results)} events")
                    records.extend(page_results)
    
                    # Track newest timestamp
                    for event in page_results:
                        try:
                            # Try multiple possible timestamp fields
                            event_time = (event.get('timestamp') or 
                                        event.get('created_at') or 
                                        event.get('last_modified') or 
                                        event.get('event_time') or 
                                        event.get('log_time') or 
                                        event.get('updated_at'))
                            if event_time and isinstance(event_time, str):
                                if event_time > newest_since:
                                    newest_since = event_time
                        except Exception as e:
                            print(f"Warning: Could not parse event time: {e}")
    
                    # Check for next page token
                    next_token = (data.get('next') or 
                                data.get('next_token') or 
                                data.get('nextPageToken') or 
                                data.get('next_page_token'))
    
                    if isinstance(next_token, dict):
                        next_token = (next_token.get('token') or 
                                    next_token.get('cursor') or 
                                    next_token.get('value'))
    
                    if not next_token:
                        print("No more pages (no next token)")
                        return records, newest_since
    
                    page_token = str(next_token)
                    break
    
                except urllib3.exceptions.HTTPError as e:
                    if attempt < HTTP_RETRIES:
                        print(f"HTTP error (attempt {attempt + 1}/{HTTP_RETRIES}): {e}")
                        time.sleep(1 + attempt)
                        attempt += 1
                        continue
                    else:
                        print(f"Error fetching logs after {HTTP_RETRIES} retries: {e}")
                        return records, newest_since
                except Exception as e:
                    print(f"Error fetching logs: {e}")
                    return records, newest_since
    
        print(f"Retrieved {len(records)} total records from {page_num} pages")
        return records, newest_since
    
    • 第二个文件:requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. 点击部署以保存并部署该函数。

  4. 等待部署完成(2-3 分钟)。

创建 Cloud Scheduler 作业

Cloud Scheduler 会定期将消息发布到 Pub/Sub 主题 (zerofox-logs-trigger),从而触发 Cloud Run 函数。

  1. GCP Console 中,前往 Cloud Scheduler
  2. 点击创建作业
  3. 提供以下配置详细信息:

    设置
    名称 zerofox-logs-collector-hourly
    区域 选择与 Cloud Run 函数相同的区域
    频率 0 * * * *(每小时一次,在整点时)
    时区 选择时区(建议选择世界协调时间 [UTC])
    目标类型 Pub/Sub
    主题 选择 Pub/Sub 主题 (zerofox-logs-trigger)
    消息正文 {}(空 JSON 对象)
  4. 点击创建

时间表频率选项

  • 根据日志量和延迟时间要求选择频次:

    频率 Cron 表达式 使用场景
    每隔 5 分钟 */5 * * * * 高容量、低延迟
    每隔 15 分钟 */15 * * * * 搜索量中等
    每小时 0 * * * * 标准(推荐)
    每 6 小时 0 */6 * * * 量小、批处理
    每天 0 0 * * * 历史数据收集

测试集成

  1. Cloud Scheduler 控制台中,找到您的作业 (zerofox-logs-collector-hourly)。
  2. 点击强制运行以手动触发作业。
  3. 等待几秒钟。
  4. 前往 Cloud Run > 服务
  5. 点击函数名称 (zerofox-logs-collector)。
  6. 点击日志标签页。
  7. 验证函数是否已成功执行。查找以下项:

    Fetching logs since YYYY-MM-DDTHH:MM:SSZ
    Page 1: Retrieved X events
    Wrote X records to gs://zerofox-platform-logs/zerofox/platform/logs_YYYYMMDD_HHMMSS.ndjson
    Successfully processed X records
    
  8. 前往 Cloud Storage > 存储分区

  9. 点击您的存储分区名称 (zerofox-platform-logs)。

  10. 前往前缀文件夹 (zerofox/platform/)。

  11. 验证是否已创建具有当前时间戳的新 .ndjson 文件。

如果您在日志中看到错误,请执行以下操作:

  • HTTP 401:检查环境变量中的 API 凭据。验证 ZEROFOX_API_TOKEN 是否正确且未过期。
  • HTTP 403:验证 ZeroFox 账号是否具有“提醒”和“CTI Feed”所需的权限。前往设置 > 数据连接 > API 数据 Feed,然后检查令牌权限。
  • HTTP 404:默认 /v1/alerts 端点可能不适合您的租户。将 URL_TEMPLATE 环境变量设置为与 ZeroFox API 文档一致,或与 ZeroFox 支持团队联系。
  • HTTP 429:速率限制 - 函数将自动重试,并采用指数退避算法。
  • 缺少环境变量:检查是否已在 Cloud Run 函数配置中设置所有必需的变量。

检索 Google SecOps 服务账号

Google SecOps 使用唯一的服务账号从您的 GCS 存储分区中读取数据。您必须授予此服务账号对您的存储分区的访问权限。

获取服务账号电子邮件地址

  1. 依次前往 SIEM 设置 > Feed
  2. 点击添加新 Feed
  3. 点击配置单个 Feed
  4. Feed 名称字段中,输入 Feed 的名称(例如 ZeroFox Platform Logs)。
  5. 选择 Google Cloud Storage V2 作为来源类型
  6. 选择 ZeroFox 平台作为日志类型
  7. 点击获取服务账号。系统会显示一个唯一的服务账号电子邮件地址,例如:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. 复制此电子邮件地址,以便在下一步中使用。

向 Google SecOps 服务账号授予 IAM 权限

Google SecOps 服务账号需要对您的 GCS 存储分区具有 Storage Object Viewer 角色。

  1. 前往 Cloud Storage > 存储分区
  2. 点击您的存储分区名称 (zerofox-platform-logs)。
  3. 前往权限标签页。
  4. 点击授予访问权限
  5. 提供以下配置详细信息:
    • 添加主账号:粘贴 Google SecOps 服务账号电子邮件地址。
    • 分配角色:选择 Storage Object Viewer
  6. 点击保存

在 Google SecOps 中配置 Feed 以提取 ZeroFox 平台日志

  1. 依次前往 SIEM 设置 > Feed
  2. 点击添加新 Feed
  3. 点击配置单个 Feed
  4. Feed 名称字段中,输入 Feed 的名称(例如 ZeroFox Platform Logs)。
  5. 选择 Google Cloud Storage V2 作为来源类型
  6. 选择 ZeroFox 平台作为日志类型
  7. 点击下一步
  8. 为以下输入参数指定值:

    • 存储分区网址:输入带有前缀路径的 GCS 存储分区 URI:

      gs://zerofox-platform-logs/zerofox/platform/
      
        • zerofox-platform-logs:您的 GCS 存储分区名称。
        • zerofox/platform:存储日志的前缀/文件夹路径。
    • 来源删除选项:根据您的偏好选择删除选项:

      • 永不:永不删除转移后的任何文件(建议用于测试)。
      • 删除已转移的文件:在成功转移后删除文件。
      • 删除已转移的文件和空目录:在成功转移后删除文件和空目录。

    • 文件存在时间上限:包含在过去指定天数内修改的文件。默认值为 180 天。

    • 资产命名空间资产命名空间

    • 注入标签:要应用于此 Feed 中事件的标签。

  9. 点击下一步

  10. 最终确定界面中查看新的 Feed 配置,然后点击提交

需要更多帮助?获得社区成员和 Google SecOps 专业人士的解答。