Mengumpulkan log Sentry

Didukung di:

Dokumen ini menjelaskan cara menyerap log Sentry ke Google Security Operations menggunakan Google Cloud Storage. Sentry menghasilkan data operasional dalam bentuk peristiwa, masalah, data pemantauan performa, dan informasi pelacakan error. Integrasi ini memungkinkan Anda mengirim log ini ke Google SecOps untuk dianalisis dan dipantau, sehingga memberikan visibilitas ke dalam error aplikasi, masalah performa, dan interaksi pengguna dalam aplikasi yang dipantau Sentry.

Sebelum memulai

Pastikan Anda memiliki prasyarat berikut:

  • Instance Google SecOps
  • Project GCP dengan Cloud Storage API diaktifkan
  • Izin untuk membuat dan mengelola bucket GCS
  • Izin untuk mengelola kebijakan IAM di bucket GCS
  • Izin untuk membuat fungsi Cloud Run, topik Pub/Sub, dan tugas Cloud Scheduler
  • Akses istimewa ke tenant Sentry (Token Auth dengan cakupan API)

Kumpulkan prasyarat Sentry (ID, kunci API, ID org, token)

  1. Login ke Sentry.
  2. Temukan Slug organisasi Anda:
    • Buka Setelan > Organisasi > Setelan > ID Organisasi (slug muncul di samping nama organisasi).
  3. Buat Token Autentikasi:
    1. Buka Setelan > Setelan Developer > Token Pribadi.
    2. Klik Create New Token.
    3. Cakupan (minimum): org:read, project:read, event:read.
    4. Klik Create Token.
    5. Salin nilai token (ditampilkan satu kali). Ini digunakan sebagai: Authorization: Bearer <token>.
  4. (Jika dihosting sendiri): Catat URL dasar Anda (misalnya, https://<your-domain>); jika tidak, gunakan https://sentry.io.

Membuat bucket Google Cloud Storage

  1. Buka Google Cloud Console.
  2. Pilih project Anda atau buat project baru.
  3. Di menu navigasi, buka Cloud Storage > Buckets.
  4. Klik Create bucket.
  5. Berikan detail konfigurasi berikut:

    Setelan Nilai
    Beri nama bucket Anda Masukkan nama yang unik secara global (misalnya, sentry-logs)
    Location type Pilih berdasarkan kebutuhan Anda (Region, Dual-region, Multi-region)
    Lokasi Pilih lokasi (misalnya, us-central1)
    Kelas penyimpanan Standar (direkomendasikan untuk log yang sering diakses)
    Access control Seragam (direkomendasikan)
    Alat perlindungan Opsional: Aktifkan pembuatan versi objek atau kebijakan retensi
  6. Klik Buat.

Buat akun layanan untuk Cloud Run Function

Fungsi Cloud Run memerlukan akun layanan dengan izin untuk menulis ke bucket GCS dan dipanggil oleh Pub/Sub.

Membuat akun layanan

  1. Di GCP Console, buka IAM & Admin > Service Accounts.
  2. Klik Create Service Account.
  3. Berikan detail konfigurasi berikut:
    • Nama akun layanan: Masukkan sentry-logs-collector-sa.
    • Deskripsi akun layanan: Masukkan Service account for Cloud Run function to collect Sentry logs.
  4. Klik Create and Continue.
  5. Di bagian Berikan akun layanan ini akses ke project, tambahkan peran berikut:
    1. Klik Pilih peran.
    2. Telusuri dan pilih Storage Object Admin.
    3. Klik + Add another role.
    4. Telusuri dan pilih Cloud Run Invoker.
    5. Klik + Add another role.
    6. Telusuri dan pilih Cloud Functions Invoker.
  6. Klik Lanjutkan.
  7. Klik Selesai.

Peran ini diperlukan untuk:

  • Storage Object Admin: Menulis log ke bucket GCS dan mengelola file status
  • Cloud Run Invoker: Mengizinkan Pub/Sub memanggil fungsi
  • Cloud Functions Invoker: Mengizinkan pemanggilan fungsi

Memberikan izin IAM pada bucket GCS

Beri akun layanan izin tulis di bucket GCS:

  1. Buka Cloud Storage > Buckets.
  2. Klik nama bucket Anda.
  3. Buka tab Izin.
  4. Klik Grant access.
  5. Berikan detail konfigurasi berikut:
    • Tambahkan prinsipal: Masukkan email akun layanan (misalnya, sentry-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com).
    • Tetapkan peran: Pilih Storage Object Admin.
  6. Klik Simpan.

Membuat topik Pub/Sub

Buat topik Pub/Sub yang akan dipublikasikan oleh Cloud Scheduler dan akan dilanggan oleh fungsi Cloud Run.

  1. Di GCP Console, buka Pub/Sub > Topics.
  2. Klik Create topic.
  3. Berikan detail konfigurasi berikut:
    • ID Topik: Masukkan sentry-logs-trigger.
    • Biarkan setelan lainnya tetap default.
  4. Klik Buat.

Membuat fungsi Cloud Run untuk mengumpulkan log

Fungsi Cloud Run dipicu oleh pesan Pub/Sub dari Cloud Scheduler untuk mengambil log dari Sentry API dan menuliskannya ke GCS.

  1. Di GCP Console, buka Cloud Run.
  2. Klik Create service.
  3. Pilih Function (gunakan editor inline untuk membuat fungsi).
  4. Di bagian Konfigurasi, berikan detail konfigurasi berikut:

    Setelan Nilai
    Nama layanan sentry-logs-collector
    Wilayah Pilih region yang cocok dengan bucket GCS Anda (misalnya, us-central1)
    Runtime Pilih Python 3.12 atau yang lebih baru
  5. Di bagian Pemicu (opsional):

    1. Klik + Tambahkan pemicu.
    2. Pilih Cloud Pub/Sub.
    3. Di Select a Cloud Pub/Sub topic, pilih topik (sentry-logs-trigger).
    4. Klik Simpan.
  6. Di bagian Authentication:

    1. Pilih Wajibkan autentikasi.
    2. Periksa Identity and Access Management (IAM).
  7. Scroll ke bawah dan luaskan Containers, Networking, Security.

  8. Buka tab Security:

    • Akun layanan: Pilih akun layanan (sentry-logs-collector-sa).
  9. Buka tab Containers:

    1. Klik Variables & Secrets.
    2. Klik + Tambahkan variabel untuk setiap variabel lingkungan:
    Nama Variabel Nilai Contoh Deskripsi
    GCS_BUCKET sentry-logs Nama bucket GCS tempat data akan disimpan.
    GCS_PREFIX sentry/events/ Awalan GCS opsional (subfolder) untuk objek.
    STATE_KEY sentry/events/state.json Kunci file status/titik pemeriksaan opsional.
    SENTRY_ORG your-org-slug Slug organisasi Sentry.
    SENTRY_AUTH_TOKEN sntrys_************************ Token Auth Sentry dengan org:read, project:read, event:read.
    SENTRY_API_BASE https://sentry.io URL dasar Sentry API (dihosting sendiri: https://<your-domain>).
    MAX_PROJECTS 100 Jumlah maksimum project yang akan diproses.
    MAX_PAGES_PER_PROJECT 5 Jumlah maksimum halaman per project per eksekusi.
  10. Scroll ke bawah di tab Variables & Secrets ke Requests:

    • Waktu tunggu permintaan: Masukkan 600 detik (10 menit).
  11. Buka tab Setelan di Penampung:

    • Di bagian Materi:
      • Memori: Pilih 512 MiB atau yang lebih tinggi.
      • CPU: Pilih 1.
    • Klik Selesai.
  12. Scroll ke Lingkungan eksekusi:

    • Pilih Default (direkomendasikan).
  13. Di bagian Penskalaan revisi:

    • Jumlah minimum instance: Masukkan 0.
    • Jumlah maksimum instance: Masukkan 100 (atau sesuaikan berdasarkan perkiraan beban).
  14. Klik Buat.

  15. Tunggu hingga layanan dibuat (1-2 menit).

  16. Setelah layanan dibuat, editor kode inline akan terbuka secara otomatis.

Menambahkan kode fungsi

  1. Masukkan main di Function entry point
  2. Di editor kode inline, buat dua file:

    • File pertama: main.py:
     import functions_framework
     from google.cloud import storage
     import json
     import os
     import urllib3
     from datetime import datetime, timezone
     import time
    
     # Initialize HTTP client
     http = urllib3.PoolManager()
    
     # Initialize Storage client
     storage_client = storage.Client()
    
     @functions_framework.cloud_event
     def main(cloud_event):
         """
         Cloud Run function triggered by Pub/Sub to fetch Sentry events and write to GCS.
    
         Args:
             cloud_event: CloudEvent object containing Pub/Sub message
         """
    
         # Get environment variables
         bucket_name = os.environ.get('GCS_BUCKET')
         prefix = os.environ.get('GCS_PREFIX', 'sentry/events/')
         state_key = os.environ.get('STATE_KEY', 'sentry/events/state.json')
         org = os.environ.get('SENTRY_ORG', '').strip()
         token = os.environ.get('SENTRY_AUTH_TOKEN', '').strip()
         api_base = os.environ.get('SENTRY_API_BASE', 'https://sentry.io').rstrip('/')
         max_projects = int(os.environ.get('MAX_PROJECTS', '100'))
         max_pages_per_project = int(os.environ.get('MAX_PAGES_PER_PROJECT', '5'))
    
         if not all([bucket_name, org, token]):
             print('Error: Missing required environment variables')
             return
    
         try:
             # Get GCS bucket
             bucket = storage_client.bucket(bucket_name)
    
             # Load state
             state = load_state(bucket, state_key)
             state.setdefault('projects', {})
    
             # Get list of projects
             projects = list_projects(api_base, org, token, max_projects)
             print(f'Found {len(projects)} projects')
    
             summary = []
    
             # Process each project
             for slug in projects:
                 start_prev = state['projects'].get(slug, {}).get('prev_cursor')
                 res = fetch_project_events(
                     api_base, org, token, slug, start_prev, 
                     max_pages_per_project, bucket, prefix
                 )
    
                 if res.get('store_prev_cursor'):
                     state['projects'][slug] = {'prev_cursor': res['store_prev_cursor']}
    
                 summary.append(res)
    
             # Save state
             save_state(bucket, state_key, state)
    
             print(f'Successfully processed {len(projects)} projects')
             print(f'Summary: {json.dumps(summary)}')
    
         except Exception as e:
             print(f'Error processing logs: {str(e)}')
             raise
    
     def load_state(bucket, key):
         """Load state from GCS."""
         try:
             blob = bucket.blob(key)
             if blob.exists():
                 state_data = blob.download_as_text()
                 return json.loads(state_data) if state_data else {'projects': {}}
         except Exception as e:
             print(f'Warning: Could not load state: {str(e)}')
         return {'projects': {}}
    
     def save_state(bucket, key, state):
         """Save state to GCS."""
         try:
             blob = bucket.blob(key)
             blob.upload_from_string(
                 json.dumps(state, separators=(',', ':')),
                 content_type='application/json'
             )
         except Exception as e:
             print(f'Warning: Could not save state: {str(e)}')
    
     def sentry_request(api_base, token, path, params=None):
         """Make request to Sentry API."""
         url = f"{api_base}{path}"
         if params:
             url = f"{url}?{urllib3.request.urlencode(params)}"
    
         headers = {
             'Authorization': f'Bearer {token}',
             'Accept': 'application/json',
             'User-Agent': 'chronicle-gcs-sentry-function/1.0'
         }
    
         response = http.request('GET', url, headers=headers, timeout=60.0)
         data = json.loads(response.data.decode('utf-8'))
         link = response.headers.get('Link')
    
         return data, link
    
     def parse_link_header(link_header):
         """Parse Link header to extract cursors."""
         if not link_header:
             return None, False, None, False
    
         prev_cursor, next_cursor = None, None
         prev_more, next_more = False, False
    
         parts = [p.strip() for p in link_header.split(',')]
         for p in parts:
             if '<' not in p or '>' not in p:
                 continue
    
             url = p.split('<', 1)[1].split('>', 1)[0]
             rel = 'previous' if 'rel="previous"' in p else ('next' if 'rel="next"' in p else None)
             has_more = 'results="true"' in p
    
             try:
                 from urllib.parse import urlparse, parse_qs
                 q = urlparse(url).query
                 cur = parse_qs(q).get('cursor', [None])[0]
             except Exception:
                 cur = None
    
             if rel == 'previous':
                 prev_cursor, prev_more = cur, has_more
             elif rel == 'next':
                 next_cursor, next_more = cur, has_more
    
         return prev_cursor, prev_more, next_cursor, next_more
    
     def write_page(bucket, prefix, project_slug, payload, page_idx):
         """Write page of events to GCS."""
         ts = time.gmtime()
         key = f"{prefix.rstrip('/')}/{time.strftime('%Y/%m/%d', ts)}/sentry-{project_slug}-{page_idx:05d}.json"
    
         blob = bucket.blob(key)
         blob.upload_from_string(
             json.dumps(payload, separators=(',', ':')),
             content_type='application/json'
         )
    
         return key
    
     def list_projects(api_base, org, token, max_projects):
         """List Sentry projects."""
         projects, cursor = [], None
    
         while len(projects) < max_projects:
             params = {'cursor': cursor} if cursor else {}
             data, link = sentry_request(api_base, token, f'/api/0/organizations/{org}/projects/', params)
    
             for p in data:
                 slug = p.get('slug')
                 if slug:
                     projects.append(slug)
                 if len(projects) >= max_projects:
                     break
    
             _, _, next_cursor, next_more = parse_link_header(link)
             cursor = next_cursor if next_more else None
             if not next_more:
                 break
    
         return projects
    
     def fetch_project_events(api_base, org, token, project_slug, start_prev_cursor, max_pages, bucket, prefix):
         """Fetch events for a project."""
         pages = 0
         total = 0
         latest_prev_cursor_to_store = None
    
         def fetch_one(cursor):
             nonlocal pages, total, latest_prev_cursor_to_store
    
             params = {'cursor': cursor} if cursor else {}
             data, link = sentry_request(api_base, token, f'/api/0/projects/{org}/{project_slug}/events/', params)
    
             write_page(bucket, prefix, project_slug, data, pages)
             total += len(data) if isinstance(data, list) else 0
    
             prev_c, prev_more, next_c, next_more = parse_link_header(link)
             latest_prev_cursor_to_store = prev_c or latest_prev_cursor_to_store
             pages += 1
    
             return prev_c, prev_more, next_c, next_more
    
         if start_prev_cursor:
             # Poll new pages toward "previous" until no more
             cur = start_prev_cursor
             while pages < max_pages:
                 prev_c, prev_more, _, _ = fetch_one(cur)
                 if not prev_more:
                     break
                 cur = prev_c
         else:
             # First run: start at newest, then backfill older pages
             prev_c, _, next_c, next_more = fetch_one(None)
             cur = next_c
             while next_more and pages < max_pages:
                 _, _, next_c, next_more = fetch_one(cur)
                 cur = next_c
    
         return {
             'project': project_slug,
             'pages': pages,
             'written': total,
             'store_prev_cursor': latest_prev_cursor_to_store
         }
     ```
    
    * Second file: **requirements.txt:**
    
    

    functions-framework3.* google-cloud-storage2.* urllib3>=2.0.0 ```

  3. Klik Deploy untuk menyimpan dan men-deploy fungsi.

  4. Tunggu hingga deployment selesai (2-3 menit).

Buat tugas Cloud Scheduler

Cloud Scheduler memublikasikan pesan ke topik Pub/Sub secara berkala, sehingga memicu fungsi Cloud Run.

  1. Di GCP Console, buka Cloud Scheduler.
  2. Klik Create Job.
  3. Berikan detail konfigurasi berikut:

    Setelan Nilai
    Nama sentry-logs-collector-hourly
    Wilayah Pilih region yang sama dengan fungsi Cloud Run
    Frekuensi 0 * * * * (setiap jam, tepat pada waktunya)
    Zona waktu Pilih zona waktu (UTC direkomendasikan)
    Jenis target Pub/Sub
    Topik Pilih topik (sentry-logs-trigger)
    Isi pesan {} (objek JSON kosong)
  4. Klik Buat.

Opsi frekuensi jadwal

  • Pilih frekuensi berdasarkan volume log dan persyaratan latensi:

    Frekuensi Ekspresi Cron Kasus Penggunaan
    Setiap 5 menit */5 * * * * Volume tinggi, latensi rendah
    Setiap 15 menit */15 * * * * Volume sedang
    Setiap jam 0 * * * * Standar (direkomendasikan)
    Setiap 6 jam 0 */6 * * * Volume rendah, pemrosesan batch
    Harian 0 0 * * * Pengumpulan data historis

Menguji tugas penjadwal

  1. Di konsol Cloud Scheduler, temukan tugas Anda.
  2. Klik Jalankan paksa untuk memicu secara manual.
  3. Tunggu beberapa detik, lalu buka Cloud Run > Services > sentry-logs-collector > Logs.
  4. Pastikan fungsi berhasil dieksekusi.
  5. Periksa bucket GCS untuk mengonfirmasi bahwa log telah ditulis.

Mengambil akun layanan Google SecOps

Google SecOps menggunakan akun layanan unik untuk membaca data dari bucket GCS Anda. Anda harus memberi akun layanan ini akses ke bucket Anda.

Dapatkan email akun layanan

  1. Buka Setelan SIEM > Feed.
  2. Klik Tambahkan Feed Baru.
  3. Klik Konfigurasi satu feed.
  4. Di kolom Nama feed, masukkan nama untuk feed (misalnya, Sentry Logs).
  5. Pilih Google Cloud Storage V2 sebagai Source type.
  6. Pilih Sentry sebagai Jenis log.
  7. Klik Get Service Account. Email akun layanan yang unik akan ditampilkan, misalnya:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. Salin alamat email ini untuk digunakan di langkah berikutnya.

Memberikan izin IAM ke akun layanan Google SecOps

Akun layanan Google SecOps memerlukan peran Storage Object Viewer di bucket GCS Anda.

  1. Buka Cloud Storage > Buckets.
  2. Klik nama bucket Anda.
  3. Buka tab Izin.
  4. Klik Grant access.
  5. Berikan detail konfigurasi berikut:
    • Add principals: Tempel email akun layanan Google SecOps.
    • Tetapkan peran: Pilih Storage Object Viewer.
  6. Klik Simpan.

Mengonfigurasi feed di Google SecOps untuk menyerap log Sentry

  1. Buka Setelan SIEM > Feed.
  2. Klik Tambahkan Feed Baru.
  3. Klik Konfigurasi satu feed.
  4. Di kolom Nama feed, masukkan nama untuk feed (misalnya, Sentry Logs).
  5. Pilih Google Cloud Storage V2 sebagai Source type.
  6. Pilih Sentry sebagai Jenis log.
  7. Klik Berikutnya.
  8. Tentukan nilai untuk parameter input berikut:

    • URL bucket penyimpanan: Masukkan URI bucket GCS dengan jalur awalan:

      gs://sentry-logs/sentry/events/
      
      • Ganti:

        • sentry-logs: Nama bucket GCS Anda.
        • sentry/events/: Awalan/jalur folder opsional tempat log disimpan (biarkan kosong untuk root).
      • Contoh:

        • Bucket root: gs://company-logs/
        • Dengan awalan: gs://company-logs/sentry-logs/
        • Dengan subfolder: gs://company-logs/sentry/events/
    • Opsi penghapusan sumber: Pilih opsi penghapusan sesuai preferensi Anda:

      • Jangan pernah: Tidak pernah menghapus file apa pun setelah transfer (direkomendasikan untuk pengujian).
      • Hapus file yang ditransfer: Menghapus file setelah transfer berhasil.
      • Hapus file yang ditransfer dan direktori kosong: Menghapus file dan direktori kosong setelah transfer berhasil.

    • Usia File Maksimum: Menyertakan file yang diubah dalam beberapa hari terakhir. Defaultnya adalah 180 hari.

    • Namespace aset: Namespace aset.

    • Label penyerapan: Label yang akan diterapkan ke peristiwa dari feed ini.

  9. Klik Berikutnya.

  10. Tinjau konfigurasi feed baru Anda di layar Selesaikan, lalu klik Kirim.

Perlu bantuan lebih lanjut? Dapatkan jawaban dari anggota Komunitas dan profesional Google SecOps.