Mengumpulkan log Layanan Pemantauan Citrix

Didukung di:

Dokumen ini menjelaskan cara menyerap log Citrix Monitor Service ke Google Security Operations menggunakan Google Cloud Storage. Parser mengubah log berformat JSON mentah menjadi format terstruktur yang sesuai dengan UDM Google SecOps. Alat ini mengekstrak kolom yang relevan dari log mentah, memetakannya ke kolom UDM yang sesuai, dan memperkaya data dengan konteks tambahan seperti informasi pengguna, detail mesin, dan aktivitas jaringan.

Sebelum memulai

Pastikan Anda memiliki prasyarat berikut:

  • Instance Google SecOps
  • Project GCP dengan Cloud Storage API diaktifkan
  • Izin untuk membuat dan mengelola bucket GCS
  • Izin untuk mengelola kebijakan IAM di bucket GCS
  • Izin untuk membuat fungsi Cloud Run, topik Pub/Sub, dan tugas Cloud Scheduler
  • Izin untuk membuat akun layanan dan mengelola peran IAM
  • Akses istimewa ke tenant Citrix Cloud
  • Kredensial Citrix Cloud API (Client ID, Client Secret, Customer ID)

Mengumpulkan prasyarat Citrix Monitor Service

  1. Login ke Citrix Cloud Console.
  2. Buka Identity and Access Management > API Access.
  3. Klik Buat Klien.
  4. Salin dan simpan detail berikut di lokasi yang aman:

    • Client-ID
    • Rahasia Klien
    • Customer ID (terlihat di konsol Citrix Cloud)
    • URL Dasar API:
      • Amerika Serikat/Eropa/AP-S: https://api.cloud.com
      • Jepang: https://api.citrixcloud.jp

Membuat bucket Google Cloud Storage

  1. Buka Google Cloud Console.
  2. Pilih project Anda atau buat project baru.
  3. Di menu navigasi, buka Cloud Storage > Buckets.
  4. Klik Create bucket.
  5. Berikan detail konfigurasi berikut:

    Setelan Nilai
    Beri nama bucket Anda Masukkan nama yang unik secara global (misalnya, citrix-monitor-logs)
    Location type Pilih berdasarkan kebutuhan Anda (Region, Dual-region, Multi-region)
    Lokasi Pilih lokasi (misalnya, us-central1)
    Kelas penyimpanan Standar (direkomendasikan untuk log yang sering diakses)
    Access control Seragam (direkomendasikan)
    Alat perlindungan Opsional: Aktifkan pembuatan versi objek atau kebijakan retensi
  6. Klik Buat.

Buat akun layanan untuk Cloud Run Function

Fungsi Cloud Run memerlukan akun layanan dengan izin untuk menulis ke bucket GCS.

Membuat akun layanan

  1. Di GCP Console, buka IAM & Admin > Service Accounts.
  2. Klik Create Service Account.
  3. Berikan detail konfigurasi berikut:
    • Nama akun layanan: Masukkan citrix-monitor-collector-sa.
    • Deskripsi akun layanan: Masukkan Service account for Cloud Run function to collect Citrix Monitor Service logs.
  4. Klik Create and Continue.
  5. Di bagian Berikan akun layanan ini akses ke project:
    1. Klik Pilih peran.
    2. Telusuri dan pilih Storage Object Admin.
    3. Klik + Add another role.
    4. Telusuri dan pilih Cloud Run Invoker.
    5. Klik + Add another role.
    6. Telusuri dan pilih Cloud Functions Invoker.
  6. Klik Lanjutkan.
  7. Klik Selesai.

Peran ini diperlukan untuk:

  • Storage Object Admin: Menulis log ke bucket GCS dan mengelola file status
  • Cloud Run Invoker: Mengizinkan Pub/Sub memanggil fungsi
  • Cloud Functions Invoker: Mengizinkan pemanggilan fungsi

Memberikan izin IAM pada bucket GCS

Beri akun layanan izin tulis di bucket GCS:

  1. Buka Cloud Storage > Buckets.
  2. Klik nama bucket Anda.
  3. Buka tab Izin.
  4. Klik Grant access.
  5. Berikan detail konfigurasi berikut:
    • Tambahkan prinsipal: Masukkan email akun layanan (citrix-monitor-collector-sa@PROJECT_ID.iam.gserviceaccount.com).
    • Tetapkan peran: Pilih Storage Object Admin.
  6. Klik Simpan.

Membuat topik Pub/Sub

Buat topik Pub/Sub yang akan dipublikasikan oleh Cloud Scheduler dan akan dilanggan oleh fungsi Cloud Run.

  1. Di GCP Console, buka Pub/Sub > Topics.
  2. Klik Create topic.
  3. Berikan detail konfigurasi berikut:
    • ID Topik: Masukkan citrix-monitor-trigger.
    • Biarkan setelan lainnya tetap default.
  4. Klik Buat.

Membuat fungsi Cloud Run untuk mengumpulkan log

Fungsi Cloud Run dipicu oleh pesan Pub/Sub dari Cloud Scheduler untuk mengambil log dari Citrix Monitor Service API dan menuliskannya ke GCS.

  1. Di GCP Console, buka Cloud Run.
  2. Klik Create service.
  3. Pilih Function (gunakan editor inline untuk membuat fungsi).
  4. Di bagian Konfigurasi, berikan detail konfigurasi berikut:

    Setelan Nilai
    Nama layanan citrix-monitor-collector
    Wilayah Pilih region yang cocok dengan bucket GCS Anda (misalnya, us-central1)
    Runtime Pilih Python 3.12 atau yang lebih baru
  5. Di bagian Pemicu (opsional):

    1. Klik + Tambahkan pemicu.
    2. Pilih Cloud Pub/Sub.
    3. Di Select a Cloud Pub/Sub topic, pilih topik (citrix-monitor-trigger).
    4. Klik Simpan.
  6. Di bagian Authentication:

    1. Pilih Wajibkan autentikasi.
    2. Periksa Identity and Access Management (IAM).
  7. Scroll ke bawah dan luaskan Containers, Networking, Security.

  8. Buka tab Security:

    • Akun layanan: Pilih akun layanan (citrix-monitor-collector-sa).
  9. Buka tab Containers:

    1. Klik Variables & Secrets.
    2. Klik + Tambahkan variabel untuk setiap variabel lingkungan:
    Nama Variabel Nilai Contoh
    GCS_BUCKET citrix-monitor-logs
    GCS_PREFIX citrix_monitor
    STATE_KEY citrix_monitor/state.json
    CITRIX_CLIENT_ID your-client-id
    CITRIX_CLIENT_SECRET your-client-secret
    CITRIX_CUSTOMER_ID your-customer-id
    API_BASE https://api.cloud.com
    ENTITIES Machines,Sessions,Connections,Applications,Users
    PAGE_SIZE 1000
    LOOKBACK_MINUTES 75
    USE_TIME_FILTER true
  10. Scroll ke bawah di tab Variables & Secrets ke Requests:

    • Waktu tunggu permintaan: Masukkan 600 detik (10 menit).
  11. Buka tab Setelan di Penampung:

    • Di bagian Materi:
      • Memori: Pilih 512 MiB atau yang lebih tinggi.
      • CPU: Pilih 1.
    • Klik Selesai.
  12. Scroll ke Lingkungan eksekusi:

    • Pilih Default (direkomendasikan).
  13. Di bagian Penskalaan revisi:

    • Jumlah minimum instance: Masukkan 0.
    • Jumlah maksimum instance: Masukkan 100 (atau sesuaikan berdasarkan perkiraan beban).
  14. Klik Buat.

  15. Tunggu hingga layanan dibuat (1-2 menit).

  16. Setelah layanan dibuat, editor kode inline akan terbuka secara otomatis.

Menambahkan kode fungsi

  1. Masukkan main di Function entry point
  2. Di editor kode inline, buat dua file:

    • File pertama: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timedelta, timezone
    import uuid
    
    # Citrix Cloud OAuth2 endpoint template
    TOKEN_URL_TMPL = "{api_base}/cctrustoauth2/{customerid}/tokens/clients"
    DEFAULT_API_BASE = "https://api.cloud.com"
    MONITOR_BASE_PATH = "/monitorodata"
    
    # Initialize HTTP client
    http = urllib3.PoolManager()
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    def http_post_form(url, data_dict):
        """POST form data to get authentication token."""
        encoded_data = urllib3.request.urlencode(data_dict)
        response = http.request(
            'POST',
            url,
            body=encoded_data,
            headers={
                'Accept': 'application/json',
                'Content-Type': 'application/x-www-form-urlencoded'
            }
        )
        return json.loads(response.data.decode('utf-8'))
    
    def http_get_json(url, headers):
        """GET JSON data from API endpoint."""
        response = http.request('GET', url, headers=headers)
        return json.loads(response.data.decode('utf-8'))
    
    def get_citrix_token(api_base, customer_id, client_id, client_secret):
        """Get Citrix Cloud authentication token."""
        url = TOKEN_URL_TMPL.format(
            api_base=api_base.rstrip('/'),
            customerid=customer_id
        )
        payload = {
            'grant_type': 'client_credentials',
            'client_id': client_id,
            'client_secret': client_secret
        }
        response = http_post_form(url, payload)
        return response['access_token']
    
    def build_entity_url(api_base, entity, filter_query=None, top=None):
        """Build OData URL with optional filter and pagination."""
        base = api_base.rstrip('/') + MONITOR_BASE_PATH + '/' + entity
        params = []
        if filter_query:
            # Encode filter query with safe characters for OData
            encoded_filter = urllib3.request.urlencode({'$filter': filter_query})[9:]  # Remove '$filter='
            params.append('$filter=' + encoded_filter)
        if top:
            params.append('$top=' + str(top))
        return base + ('?' + '&'.join(params) if params else '')
    
    def fetch_entity_rows(entity, start_iso=None, end_iso=None, page_size=1000, headers=None, api_base=DEFAULT_API_BASE):
        """Fetch entity data with optional time filtering and pagination."""
        first_url = None
        if start_iso and end_iso:
            filter_query = f"(ModifiedDate ge {start_iso} and ModifiedDate lt {end_iso})"
            first_url = build_entity_url(api_base, entity, filter_query, page_size)
        else:
            first_url = build_entity_url(api_base, entity, None, page_size)
    
        url = first_url
        while url:
            try:
                data = http_get_json(url, headers)
                items = data.get('value', [])
                for item in items:
                    yield item
                url = data.get('@odata.nextLink')
            except Exception as e:
                # If ModifiedDate filtering fails, fall back to unfiltered query
                if 'Bad Request' in str(e) and start_iso and end_iso:
                    print(f"ModifiedDate filter not supported for {entity}, falling back to unfiltered query")
                    url = build_entity_url(api_base, entity, None, page_size)
                    continue
                else:
                    raise
    
    def load_state(bucket, key):
        """Read the last processed timestamp from GCS state file."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                content = blob.download_as_text()
                state = json.loads(content)
                timestamp_str = state.get('last_hour_utc')
                if timestamp_str:
                    return datetime.fromisoformat(timestamp_str.replace('Z', '+00:00')).replace(tzinfo=None)
        except Exception as e:
            print(f"Warning: Could not load state: {str(e)}")
        return None
    
    def save_state(bucket, key, dt_utc):
        """Write the current processed timestamp to GCS state file."""
        state = {'last_hour_utc': dt_utc.isoformat() + 'Z'}
        blob = bucket.blob(key)
        blob.upload_from_string(
            json.dumps(state, separators=(',', ':')),
            content_type='application/json'
        )
    
    def write_ndjson_to_gcs(bucket, key, rows):
        """Write rows as NDJSON to GCS."""
        body_lines = []
        for row in rows:
            json_line = json.dumps(row, separators=(',', ':'), ensure_ascii=False)
            body_lines.append(json_line)
        body = '\n'.join(body_lines) + '\n'
        blob = bucket.blob(key)
        blob.upload_from_string(body, content_type='application/x-ndjson')
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch Citrix Monitor Service logs and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        # Get environment variables
        bucket_name = os.environ.get('GCS_BUCKET')
        prefix = os.environ.get('GCS_PREFIX', 'citrix_monitor').strip('/')
        state_key = os.environ.get('STATE_KEY') or f"{prefix}/state.json"
        customer_id = os.environ.get('CITRIX_CUSTOMER_ID')
        client_id = os.environ.get('CITRIX_CLIENT_ID')
        client_secret = os.environ.get('CITRIX_CLIENT_SECRET')
        api_base = os.environ.get('API_BASE', DEFAULT_API_BASE)
        entities = [e.strip() for e in os.environ.get('ENTITIES', 'Machines,Sessions,Connections,Applications,Users').split(',') if e.strip()]
        page_size = int(os.environ.get('PAGE_SIZE', '1000'))
        lookback_minutes = int(os.environ.get('LOOKBACK_MINUTES', '75'))
        use_time_filter = os.environ.get('USE_TIME_FILTER', 'true').lower() == 'true'
    
        if not all([bucket_name, customer_id, client_id, client_secret]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(bucket_name)
    
            # Time window calculation
            now = datetime.utcnow()
            fallback_hour = (now - timedelta(minutes=lookback_minutes)).replace(minute=0, second=0, microsecond=0)
            last_processed = load_state(bucket, state_key)
            target_hour = (last_processed + timedelta(hours=1)) if last_processed else fallback_hour
            start_iso = target_hour.isoformat() + 'Z'
            end_iso = (target_hour + timedelta(hours=1)).isoformat() + 'Z'
    
            # Authentication
            token = get_citrix_token(api_base, customer_id, client_id, client_secret)
            headers = {
                'Authorization': f'CWSAuth bearer={token}',
                'Citrix-CustomerId': customer_id,
                'Accept': 'application/json',
                'Accept-Encoding': 'gzip, deflate, br',
                'User-Agent': 'citrix-monitor-gcs-collector/1.0'
            }
    
            total_records = 0
    
            # Process each entity type
            for entity in entities:
                rows_batch = []
                try:
                    entity_generator = fetch_entity_rows(
                        entity=entity,
                        start_iso=start_iso if use_time_filter else None,
                        end_iso=end_iso if use_time_filter else None,
                        page_size=page_size,
                        headers=headers,
                        api_base=api_base
                    )
    
                    for row in entity_generator:
                        # Store raw Citrix data directly for proper parser recognition
                        rows_batch.append(row)
    
                        # Write in batches to avoid memory issues
                        if len(rows_batch) >= 1000:
                            gcs_key = f"{prefix}/{entity}/year={target_hour.year:04d}/month={target_hour.month:02d}/day={target_hour.day:02d}/hour={target_hour.hour:02d}/part-{uuid.uuid4().hex}.ndjson"
                            write_ndjson_to_gcs(bucket, gcs_key, rows_batch)
                            total_records += len(rows_batch)
                            rows_batch = []
    
                except Exception as ex:
                    print(f"Error processing entity {entity}: {str(ex)}")
                    continue
    
                # Write remaining records
                if rows_batch:
                    gcs_key = f"{prefix}/{entity}/year={target_hour.year:04d}/month={target_hour.month:02d}/day={target_hour.day:02d}/hour={target_hour.hour:02d}/part-{uuid.uuid4().hex}.ndjson"
                    write_ndjson_to_gcs(bucket, gcs_key, rows_batch)
                    total_records += len(rows_batch)
    
            # Update state file
            save_state(bucket, state_key, target_hour)
    
            print(f"Successfully processed {total_records} records for hour {start_iso}")
            print(f"Entities processed: {', '.join(entities)}")
    
        except Exception as e:
            print(f'Error processing Citrix Monitor logs: {str(e)}')
            raise
    
    • File kedua: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. Klik Deploy untuk menyimpan dan men-deploy fungsi.

  4. Tunggu hingga deployment selesai (2-3 menit).

Buat tugas Cloud Scheduler

Cloud Scheduler memublikasikan pesan ke topik Pub/Sub secara berkala, sehingga memicu fungsi Cloud Run.

  1. Di GCP Console, buka Cloud Scheduler.
  2. Klik Create Job.
  3. Berikan detail konfigurasi berikut:

    Setelan Nilai
    Nama citrix-monitor-collector-hourly
    Wilayah Pilih region yang sama dengan fungsi Cloud Run
    Frekuensi 0 * * * * (setiap jam, tepat pada waktunya)
    Zona waktu Pilih zona waktu (UTC direkomendasikan)
    Jenis target Pub/Sub
    Topik Pilih topik (citrix-monitor-trigger)
    Isi pesan {} (objek JSON kosong)
  4. Klik Buat.

Menguji tugas penjadwal

  1. Di konsol Cloud Scheduler, temukan tugas Anda.
  2. Klik Jalankan paksa untuk memicu secara manual.
  3. Tunggu beberapa detik, lalu buka Cloud Run > Services > citrix-monitor-collector > Logs.
  4. Pastikan fungsi berhasil dieksekusi.
  5. Periksa bucket GCS untuk mengonfirmasi bahwa log telah ditulis.

Mengambil akun layanan Google SecOps

Google SecOps menggunakan akun layanan unik untuk membaca data dari bucket GCS Anda. Anda harus memberi akun layanan ini akses ke bucket Anda.

Dapatkan email akun layanan

  1. Buka Setelan SIEM > Feed.
  2. Klik Tambahkan Feed Baru.
  3. Klik Konfigurasi satu feed.
  4. Di kolom Nama feed, masukkan nama untuk feed (misalnya, Citrix Monitor Service logs).
  5. Pilih Google Cloud Storage V2 sebagai Source type.
  6. Pilih Citrix Monitor sebagai Jenis log.
  7. Klik Get Service Account. Email akun layanan yang unik akan ditampilkan, misalnya:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. Salin alamat email ini untuk digunakan di langkah berikutnya.

Memberikan izin IAM ke akun layanan Google SecOps

Akun layanan Google SecOps memerlukan peran Storage Object Viewer di bucket GCS Anda.

  1. Buka Cloud Storage > Buckets.
  2. Klik nama bucket Anda.
  3. Buka tab Izin.
  4. Klik Grant access.
  5. Berikan detail konfigurasi berikut:
    • Add principals: Tempel email akun layanan Google SecOps.
    • Tetapkan peran: Pilih Storage Object Viewer.
  6. Klik Simpan.

Mengonfigurasi feed di Google SecOps untuk menyerap log Layanan Monitor Citrix

  1. Buka Setelan SIEM > Feed.
  2. Klik Tambahkan Feed Baru.
  3. Klik Konfigurasi satu feed.
  4. Di kolom Nama feed, masukkan nama untuk feed (misalnya, Citrix Monitor Service logs).
  5. Pilih Google Cloud Storage V2 sebagai Source type.
  6. Pilih Citrix Monitor sebagai Jenis log.
  7. Klik Berikutnya.
  8. Tentukan nilai untuk parameter input berikut:

    • URL bucket penyimpanan: Masukkan URI bucket GCS dengan jalur awalan:

      gs://citrix-monitor-logs/citrix_monitor/
      
      • Ganti:

        • citrix-monitor-logs: Nama bucket GCS Anda.
        • citrix_monitor: Awalan/jalur folder opsional tempat log disimpan (biarkan kosong untuk root).
    • Opsi penghapusan sumber: Pilih opsi penghapusan sesuai preferensi Anda:

      • Jangan pernah: Tidak pernah menghapus file apa pun setelah transfer (direkomendasikan untuk pengujian).
      • Hapus file yang ditransfer: Menghapus file setelah transfer berhasil.
      • Hapus file yang ditransfer dan direktori kosong: Menghapus file dan direktori kosong setelah transfer berhasil.

    • Usia File Maksimum: Menyertakan file yang diubah dalam beberapa hari terakhir. Defaultnya adalah 180 hari.

    • Namespace aset: Namespace aset.

    • Label penyerapan: Label yang akan diterapkan ke peristiwa dari feed ini.

  9. Klik Berikutnya.

  10. Tinjau konfigurasi feed baru Anda di layar Selesaikan, lalu klik Kirim.

Perlu bantuan lebih lanjut? Dapatkan jawaban dari anggota Komunitas dan profesional Google SecOps.