收集 Snyk 群組層級稽核記錄
本文說明如何使用 Google Cloud Storage,將 Snyk 群組層級的稽核記錄擷取至 Google Security Operations。剖析器會先清除原始記錄中不必要的欄位,接著,系統會擷取相關資訊 (例如使用者詳細資料、事件類型和時間戳記),並轉換及對應至 Google SecOps UDM 架構,以標準化安全記錄表示法呈現。
事前準備
請確認您已完成下列事前準備事項:
- Google SecOps 執行個體
- 已啟用 Cloud Storage API 的 GCP 專案
- 建立及管理 GCS 值區的權限
- 管理 Google Cloud Storage 值區 IAM 政策的權限
- 建立 Cloud Run 服務、Pub/Sub 主題和 Cloud Scheduler 工作的權限
- Snyk 的特殊存取權 (群組管理員),以及有權存取群組的 API 權杖
- Snyk Enterprise 方案 (稽核記錄端點僅適用於 Enterprise 方案)
收集 Snyk 群組層級稽核記錄的必要條件 (ID、API 金鑰、機構 ID、權杖)
- 在 Snyk 中,依序點選你的虛擬人偶 >「帳戶設定」>「API 權杖」。
- 按一下「撤銷並重新產生」 (或「產生」),然後複製權杖。
- 將這個權杖儲存為
SNYK_API_TOKEN環境變數。 - 在 Snyk 中,切換至您的群組 (左上方的切換器)。
- 前往「群組設定」。
- 從網址複製
<GROUP_ID>:https://app.snyk.io/group/<GROUP_ID>/settings。- 或是使用 REST API:
GET https://api.snyk.io/rest/groups?version=2024-01-04並選取id。
- 或是使用 REST API:
- 確認權杖使用者具備「查看稽核記錄」 (
group.audit.read) 權限。
驗證權限
如要確認帳戶是否具備必要權限,請按照下列步驟操作:
- 登入 Snyk。
- 切換至群組 (左上方的切換器)。
- 前往「群組設定」。
- 如果左側導覽面板顯示「稽核記錄」選項,表示您具備必要權限。
如果沒有看到這個選項,請與管理員聯絡,要求對方授予「查看稽核記錄」 (
group.audit.read) 權限。
測試 API 存取權
請先測試憑證,再繼續進行整合:
# Replace with your actual credentials SNYK_API_TOKEN="your-token-here" SNYK_GROUP_ID="your-group-id-here" SNYK_API_VERSION="2024-01-04" # Test API access curl -v -H "Authorization: token ${SNYK_API_TOKEN}" \ "https://api.snyk.io/rest/groups/${SNYK_GROUP_ID}/audit_logs/search?version=${SNYK_API_VERSION}&size=10"
建立 Google Cloud Storage 值區
- 前往 Google Cloud 控制台。
- 選取專案或建立新專案。
- 在導覽選單中,依序前往「Cloud Storage」>「Bucket」。
- 按一下「建立值區」。
請提供下列設定詳細資料:
設定 值 為 bucket 命名 輸入全域不重複的名稱 (例如 snyk-audit)位置類型 根據需求選擇 (區域、雙區域、多區域) 位置 選取地點 (例如 us-central1)儲存空間級別 標準 (建議用於經常存取的記錄) 存取控管 統一 (建議) 保護工具 選用:啟用物件版本管理或保留政策 點選「建立」。
為 Cloud Run 函式建立服務帳戶
Cloud Run 函式需要具備 GCS bucket 寫入權限的服務帳戶,並由 Pub/Sub 叫用。
建立服務帳戶
- 在 GCP 主控台中,依序前往「IAM & Admin」(IAM 與管理) >「Service Accounts」(服務帳戶)。
- 按一下 [Create Service Account] (建立服務帳戶)。
- 請提供下列設定詳細資料:
- 服務帳戶名稱:輸入
snyk-audit-collector-sa。 - 服務帳戶說明:輸入
Service account for Cloud Run function to collect Snyk group-level audit logs。
- 服務帳戶名稱:輸入
- 按一下「建立並繼續」。
- 在「將專案存取權授予這個服務帳戶」部分,新增下列角色:
- 按一下「選擇角色」。
- 搜尋並選取「Storage 物件管理員」。
- 點選「+ 新增其他角色」。
- 搜尋並選取「Cloud Run Invoker」。
- 點選「+ 新增其他角色」。
- 搜尋並選取「Cloud Functions Invoker」(Cloud Functions 叫用者)。
- 按一下「繼續」。
- 按一下 [完成]。
這些角色適用於:
- Storage 物件管理員:將記錄檔寫入 GCS 值區,並管理狀態檔案
- Cloud Run 叫用者:允許 Pub/Sub 叫用函式
- Cloud Functions 叫用者:允許函式叫用
授予 GCS 值區的 IAM 權限
授予服務帳戶 GCS bucket 的寫入權限:
- 依序前往「Cloud Storage」>「Buckets」。
- 按一下 bucket 名稱 (例如
snyk-audit)。 - 前往「權限」分頁標籤。
- 按一下「授予存取權」。
- 請提供下列設定詳細資料:
- 新增主體:輸入服務帳戶電子郵件地址 (例如
snyk-audit-collector-sa@PROJECT_ID.iam.gserviceaccount.com)。 - 指派角色:選取「Storage 物件管理員」。
- 新增主體:輸入服務帳戶電子郵件地址 (例如
- 按一下 [儲存]。
建立 Pub/Sub 主題
建立 Pub/Sub 主題,Cloud Scheduler 會將訊息發布至該主題,而 Cloud Run 函式會訂閱該主題。
- 在 GCP Console 中,前往「Pub/Sub」>「Topics」(主題)。
- 按一下「建立主題」。
- 請提供下列設定詳細資料:
- 主題 ID:輸入
snyk-audit-trigger。 - 其他設定保留預設值。
- 主題 ID:輸入
- 點選「建立」。
建立 Cloud Run 函式來收集記錄
Cloud Run 函式會由 Cloud Scheduler 的 Pub/Sub 訊息觸發,從 Snyk API 擷取記錄並寫入 GCS。
- 前往 GCP Console 的「Cloud Run」。
- 按一下「Create service」(建立服務)。
- 選取「函式」 (使用內嵌編輯器建立函式)。
在「設定」部分,提供下列設定詳細資料:
設定 值 服務名稱 snyk-audit-collector區域 選取與 GCS bucket 相符的區域 (例如 us-central1)執行階段 選取「Python 3.12」以上版本 在「Trigger (optional)」(觸發條件 (選用)) 專區:
- 按一下「+ 新增觸發條件」。
- 選取「Cloud Pub/Sub」。
- 在「選取 Cloud Pub/Sub 主題」中,選擇 Pub/Sub 主題 (
snyk-audit-trigger)。 - 按一下 [儲存]。
在「Authentication」(驗證) 部分:
- 選取「需要驗證」。
- 檢查 Identity and Access Management (IAM)。
向下捲動並展開「Containers, Networking, Security」。
前往「安全性」分頁:
- 服務帳戶:選取服務帳戶 (
snyk-audit-collector-sa)。
- 服務帳戶:選取服務帳戶 (
前往「容器」分頁:
- 按一下「變數與密鑰」。
- 針對每個環境變數,按一下「+ 新增變數」:
變數名稱 範例值 GCS_BUCKETsnyk-auditGCS_PREFIXsnyk/audit/STATE_KEYsnyk/audit/state.jsonSNYK_GROUP_ID<your_group_id>SNYK_API_TOKENxxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxSNYK_API_BASEhttps://api.snyk.io(非必要)SNYK_API_VERSION2024-01-04SIZE100MAX_PAGES20LOOKBACK_SECONDS3600EVENTS(選填) group.create,org.user.addEXCLUDE_EVENTS(選填) api.access在「變數與密鑰」部分,向下捲動至「要求」:
- 要求逾時:輸入
600秒 (10 分鐘)。
- 要求逾時:輸入
前往「設定」分頁:
- 在「資源」部分:
- 記憶體:選取 512 MiB 以上。
- CPU:選取 1。
- 在「資源」部分:
在「修訂版本資源調度」部分:
- 執行個體數量下限:輸入
0。 - 「Maximum number of instances」(執行個體數量上限):輸入
100(或根據預期負載調整)。
- 執行個體數量下限:輸入
點選「建立」。
等待服務建立完成 (1 到 2 分鐘)。
服務建立完成後,系統會自動開啟內嵌程式碼編輯器。
新增函式程式碼
- 在「Function entry point」(函式進入點) 中輸入 main
在內嵌程式碼編輯器中建立兩個檔案:
- 第一個檔案:main.py:
import functions_framework from google.cloud import storage import json import os import urllib3 from datetime import datetime, timezone import time import urllib.parse # Initialize HTTP client http = urllib3.PoolManager() # Initialize Storage client storage_client = storage.Client() @functions_framework.cloud_event def main(cloud_event): """ Cloud Run function triggered by Pub/Sub to fetch Snyk group-level audit logs and write to GCS. Args: cloud_event: CloudEvent object containing Pub/Sub message """ # Get environment variables bucket_name = os.environ.get('GCS_BUCKET') prefix = os.environ.get('GCS_PREFIX', 'snyk/audit/') state_key = os.environ.get('STATE_KEY', 'snyk/audit/state.json') # Snyk API configuration api_base = os.environ.get('SNYK_API_BASE', 'https://api.snyk.io').rstrip('/') group_id = os.environ.get('SNYK_GROUP_ID', '').strip() api_token = os.environ.get('SNYK_API_TOKEN', '').strip() api_version = os.environ.get('SNYK_API_VERSION', '2024-01-04').strip() size = int(os.environ.get('SIZE', '100')) max_pages = int(os.environ.get('MAX_PAGES', '20')) lookback_seconds = int(os.environ.get('LOOKBACK_SECONDS', '3600')) events_csv = os.environ.get('EVENTS', '').strip() exclude_events_csv = os.environ.get('EXCLUDE_EVENTS', '').strip() if not all([bucket_name, group_id, api_token]): print('Error: Missing required environment variables') return try: # Get GCS bucket bucket = storage_client.bucket(bucket_name) # Load state (last cursor) state = load_state(bucket, state_key) cursor = state.get('cursor') print(f'Starting log collection with cursor: {cursor}') # Prepare headers for Snyk REST API headers = { 'Authorization': f'token {api_token}', 'Accept': 'application/vnd.api+json' } pages = 0 total = 0 last_cursor = cursor # Only for the very first run (no saved cursor), constrain the time window first_run_from_iso = None if not cursor and lookback_seconds > 0: first_run_from_iso = time.strftime( '%Y-%m-%dT%H:%M:%SZ', time.gmtime(time.time() - lookback_seconds) ) while pages < max_pages: payload = fetch_page( api_base, group_id, headers, api_version, size, cursor, first_run_from_iso, events_csv, exclude_events_csv ) # Write payload to GCS write_to_gcs(bucket, prefix, payload) # Extract items count data_obj = payload.get('data') or {} items = data_obj.get('items') or [] if isinstance(items, list): total += len(items) # Parse next cursor cursor = parse_next_cursor_from_links(payload.get('links')) pages += 1 if not cursor: break # After first page, disable from-filter first_run_from_iso = None # Save state if cursor and cursor != last_cursor: save_state(bucket, state_key, {'cursor': cursor}) print(f'Successfully processed {total} events across {pages} pages. Next cursor: {cursor}') except Exception as e: print(f'Error processing logs: {str(e)}') raise def load_state(bucket, key): """Load state from GCS.""" try: blob = bucket.blob(key) if blob.exists(): state_data = blob.download_as_text() return json.loads(state_data) except Exception as e: print(f'Warning: Could not load state: {str(e)}') return {} def save_state(bucket, key, state): """Save state to GCS.""" try: blob = bucket.blob(key) blob.upload_from_string( json.dumps(state), content_type='application/json' ) except Exception as e: print(f'Warning: Could not save state: {str(e)}') def write_to_gcs(bucket, prefix, payload): """Write payload to GCS.""" ts = time.strftime('%Y/%m/%d/%H%M%S', time.gmtime()) key = f"{prefix.rstrip('/')}/{ts}-snyk-group-audit.json" blob = bucket.blob(key) blob.upload_from_string( json.dumps(payload, separators=(',', ':')), content_type='application/json' ) print(f'Wrote payload to {key}') def parse_next_cursor_from_links(links): """Parse next cursor from links object.""" if not links: return None nxt = links.get('next') if not nxt: return None try: q = urllib.parse.urlparse(nxt).query params = urllib.parse.parse_qs(q) cur = params.get('cursor') return cur[0] if cur else None except Exception: return None def as_list(csv_str): """Convert comma-separated string to list.""" return [x.strip() for x in csv_str.split(',') if x.strip()] def fetch_page(api_base, group_id, headers, api_version, size, cursor, first_run_from_iso, events_csv, exclude_events_csv): """Fetch a single page from Snyk audit logs API.""" base_path = f'/rest/groups/{group_id}/audit_logs/search' params = { 'version': api_version, 'size': size, } if cursor: params['cursor'] = cursor elif first_run_from_iso: params['from'] = first_run_from_iso events = as_list(events_csv) exclude_events = as_list(exclude_events_csv) if events and exclude_events: exclude_events = [] if events: params['events'] = events if exclude_events: params['exclude_events'] = exclude_events url = f"{api_base}{base_path}?{urllib.parse.urlencode(params, doseq=True)}" response = http.request('GET', url, headers=headers, timeout=60.0) if response.status == 429 or response.status >= 500: retry_after = int(response.headers.get('Retry-After', '1')) time.sleep(max(1, retry_after)) response = http.request('GET', url, headers=headers, timeout=60.0) if response.status != 200: raise Exception(f'API request failed with status {response.status}: {response.data.decode("utf-8")}') return json.loads(response.data.decode('utf-8'))- 第二個檔案:requirements.txt:
functions-framework==3.* google-cloud-storage==2.* urllib3>=2.0.0點選「部署」來儲存並部署函式。
等待部署作業完成 (2 到 3 分鐘)。
建立 Cloud Scheduler 工作
Cloud Scheduler 會定期將訊息發布至 Pub/Sub 主題,觸發 Cloud Run 函式。
- 前往 GCP 主控台的「Cloud Scheduler」。
- 點選「建立工作」。
請提供下列設定詳細資料:
設定 值 名稱 snyk-audit-collector-hourly區域 選取與 Cloud Run 函式相同的區域 頻率 0 * * * *(每小時整點)時區 選取時區 (建議使用世界標準時間) 目標類型 Pub/Sub 主題 選取 Pub/Sub 主題 ( snyk-audit-trigger)郵件內文 {}點選「建立」。
排程頻率選項
根據記錄檔量和延遲時間要求選擇頻率:
頻率 Cron 運算式 用途 每 5 分鐘 */5 * * * *高容量、低延遲 每 15 分鐘檢查一次 */15 * * * *普通量 每小時 0 * * * *標準 (建議採用) 每 6 小時 0 */6 * * *少量、批次處理 每日 0 0 * * *歷來資料集合
測試整合項目
- 在 Cloud Scheduler 控制台中,找出您的作業 (
snyk-audit-collector-hourly)。 - 按一下「強制執行」,手動觸發工作。
- 稍等幾秒鐘。
- 前往「Cloud Run」>「Services」。
- 按一下函式名稱 (
snyk-audit-collector)。 - 按一下 [Logs] (記錄) 分頁標籤。
確認函式是否已順利執行。請找出以下項目:
Starting log collection with cursor: None Page 1: Retrieved X events Wrote payload to snyk/audit/YYYY/MM/DD/HHMMSS-snyk-group-audit.json Successfully processed X events across Y pages. Next cursor: ...依序前往「Cloud Storage」>「Buckets」。
按一下 bucket 名稱 (例如
snyk-audit)。前往前置字元資料夾 (
snyk/audit/)。確認是否已建立含有目前時間戳記的新
.json檔案。
如果在記錄中發現錯誤:
- HTTP 401:檢查環境變數中的
SNYK_API_TOKEN - HTTP 403:確認權杖使用者具有
group.audit.read權限,且 Snyk 訂閱方案為 Enterprise 方案 - HTTP 429:頻率限制 - 函式會自動重試並延遲
- 缺少環境變數:檢查是否已設定所有必要變數 (
GCS_BUCKET、SNYK_GROUP_ID、SNYK_API_TOKEN)
擷取 Google SecOps 服務帳戶
Google SecOps 會使用專屬服務帳戶,從 GCS bucket 讀取資料。您必須授予這個服務帳戶值區存取權。
取得服務帳戶電子郵件地址
- 依序前往「SIEM 設定」>「動態饋給」。
- 按一下「新增動態消息」。
- 按一下「設定單一動態饋給」。
- 在「動態饋給名稱」欄位中輸入動態饋給名稱 (例如
Snyk Group Audit Logs)。 - 選取「Google Cloud Storage V2」做為「來源類型」。
- 選取「Snyk Group level audit Logs」(Snyk 群組層級稽核記錄) 做為「Log type」(記錄類型)。
按一下「取得服務帳戶」。系統會顯示專屬的服務帳戶電子郵件地址,例如:
chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com複製這個電子郵件地址,以便在下一步中使用。
將 IAM 權限授予 Google SecOps 服務帳戶
Google SecOps 服務帳戶需要 GCS bucket 的「Storage 物件檢視者」角色。
- 依序前往「Cloud Storage」>「Buckets」。
- 按一下 bucket 名稱 (例如
snyk-audit)。 - 前往「權限」分頁標籤。
- 按一下「授予存取權」。
- 請提供下列設定詳細資料:
- 新增主體:貼上 Google SecOps 服務帳戶電子郵件地址。
- 指派角色:選取「Storage 物件檢視者」。
按一下 [儲存]。
在 Google SecOps 中設定資訊提供,擷取 Snyk 群組層級的稽核記錄
- 依序前往「SIEM 設定」>「動態饋給」。
- 按一下「新增動態消息」。
- 按一下「設定單一動態饋給」。
- 在「動態饋給名稱」欄位中輸入動態饋給名稱 (例如
Snyk Group Audit Logs)。 - 選取「Google Cloud Storage V2」做為「來源類型」。
- 選取「Snyk Group level audit Logs」(Snyk 群組層級稽核記錄) 做為「Log type」(記錄類型)。
- 點選 [下一步]。
指定下列輸入參數的值:
儲存空間 bucket URL:輸入 GCS bucket URI,並加上前置路徑:
gs://snyk-audit/snyk/audit/取代:
snyk-audit:您的 GCS bucket 名稱。snyk/audit/:儲存記錄的前置字元/資料夾路徑。
來源刪除選項:根據偏好設定選取刪除選項:
- 永不:移轉後一律不刪除任何檔案 (建議用於測試)。
- 刪除已轉移的檔案:成功轉移檔案後刪除檔案。
刪除已轉移的檔案和空白目錄:成功轉移後刪除檔案和空白目錄。
檔案存在時間上限:包含在過去天數內修改的檔案。預設值為 180 天。
資產命名空間:
snyk.group_audit擷取標籤:視需要新增。
點選 [下一步]。
在「Finalize」(完成) 畫面中檢查新的動態饋給設定,然後按一下「Submit」(提交)。
UDM 對應表
| 記錄欄位 | UDM 對應 | 邏輯 |
|---|---|---|
| content.url | principal.url | 直接從原始記錄的 content.url 欄位對應。 |
| 已建立 | metadata.event_timestamp | 使用 ISO8601 格式,從原始記錄的建立欄位剖析。 |
| 活動 | metadata.product_event_type | 直接從原始記錄中的事件欄位對應。 |
| groupId | principal.user.group_identifiers | 直接從原始記錄中的 groupId 欄位對應。 |
| orgId | principal.user.attribute.labels.key | 設為「orgId」。 |
| orgId | principal.user.attribute.labels.value | 直接從原始記錄中的 orgId 欄位對應。 |
| userId | principal.user.userid | 直接從原始記錄中的 userId 欄位對應。 |
| 不適用 | metadata.event_type | 在剖析器程式碼中,以硬式編碼方式設為「USER_UNCATEGORIZED」。 |
| 不適用 | metadata.log_type | 在剖析器程式碼中,硬式編碼為「SNYK_SDLC」。 |
| 不適用 | metadata.product_name | 在剖析器程式碼中,硬式編碼為「SNYK SDLC」。 |
| 不適用 | metadata.vendor_name | 在剖析器程式碼中,硬式編碼為「SNYK_SDLC」。 |
需要其他協助嗎?向社群成員和 Google SecOps 專業人員尋求答案。