Recopila registros de eventos de Bitwarden Enterprise

Se admite en los siguientes sistemas operativos:

En este documento, se explica cómo transferir registros de eventos de Bitwarden Enterprise a Google Security Operations con Google Cloud Storage. El analizador transforma los registros de eventos sin procesar con formato JSON en un formato estructurado que cumple con el UDM de SecOps. Extrae campos relevantes, como detalles del usuario, direcciones IP y tipos de eventos, y los asigna a los campos correspondientes del UDM para realizar un análisis de seguridad coherente.

Antes de comenzar

Asegúrate de cumplir con los siguientes requisitos previos:

  • Una instancia de Google SecOps
  • Acceso con privilegios al arrendatario de Bitwarden
  • Un proyecto de GCP con la API de Cloud Storage habilitada
  • Permisos para crear y administrar buckets de GCS
  • Permisos para administrar políticas de IAM en buckets de GCS
  • Permisos para crear servicios de Cloud Run, temas de Pub/Sub y trabajos de Cloud Scheduler

Obtén la URL y la clave de API de Bitwarden

  1. En la Consola del administrador de Bitwarden, ve a Settings > Organization info > View API key.
  2. Copia y guarda los siguientes detalles en una ubicación segura:
    • ID de cliente
    • Client Secret (Secreto del cliente)
  3. Determina tus extremos de Bitwarden (según la región):

    • IDENTITY_URL = https://identity.bitwarden.com/connect/token (UE: https://identity.bitwarden.eu/connect/token)
    • API_BASE = https://api.bitwarden.com (UE: https://api.bitwarden.eu)

Crea un bucket de Google Cloud Storage

  1. Ve a Google Cloud Console.
  2. Selecciona tu proyecto o crea uno nuevo.
  3. En el menú de navegación, ve a Cloud Storage > Buckets.
  4. Haz clic en Crear bucket.
  5. Proporciona los siguientes detalles de configuración:

    Configuración Valor
    Asigna un nombre a tu bucket Ingresa un nombre global único (por ejemplo, bitwarden-events).
    Tipo de ubicación Elige según tus necesidades (región, birregional, multirregional)
    Ubicación Selecciona la ubicación (por ejemplo, us-central1).
    Clase de almacenamiento Estándar (recomendado para los registros a los que se accede con frecuencia)
    Control de acceso Uniforme (recomendado)
    Herramientas de protección Opcional: Habilita el control de versiones de objetos o la política de retención
  6. Haz clic en Crear.

Recopila los requisitos previos de la API de Bitwarden

Ya recopilaste las credenciales de la API de Bitwarden en el paso anterior:

  • ID de cliente: Es el ID de cliente de la organización de la Consola del administrador de Bitwarden.
  • Secreto del cliente: Secreto del cliente de la organización de la Consola del administrador de Bitwarden
  • IDENTITY_URL: https://identity.bitwarden.com/connect/token (o extremo de la UE)
  • API_BASE: https://api.bitwarden.com (o extremo de la UE)

Crea una cuenta de servicio para la Cloud Run Function

La Cloud Run Function necesita una cuenta de servicio con permisos para escribir en el bucket de GCS y ser invocada por Pub/Sub.

Crear cuenta de servicio

  1. En GCP Console, ve a IAM y administración > Cuentas de servicio.
  2. Haz clic en Crear cuenta de servicio.
  3. Proporciona los siguientes detalles de configuración:
    • Nombre de la cuenta de servicio: Ingresa bitwarden-events-collector-sa.
    • Descripción de la cuenta de servicio: Ingresa Service account for Cloud Run function to collect Bitwarden Enterprise Event logs.
  4. Haz clic en Crear y continuar.
  5. En la sección Otorga a esta cuenta de servicio acceso al proyecto, agrega los siguientes roles:
    1. Haz clic en Selecciona un rol.
    2. Busca y selecciona Administrador de objetos de almacenamiento.
    3. Haz clic en + Agregar otra función.
    4. Busca y selecciona Invocador de Cloud Run.
    5. Haz clic en + Agregar otra función.
    6. Busca y selecciona Cloud Functions Invoker.
  6. Haz clic en Continuar.
  7. Haz clic en Listo.

Estos roles son necesarios para las siguientes acciones:

  • Administrador de objetos de almacenamiento: Escribe registros en el bucket de GCS y administra archivos de estado
  • Invocador de Cloud Run: Permite que Pub/Sub invoque la función
  • Cloud Functions Invoker: Permite la invocación de funciones

Otorga permisos de IAM en el bucket de GCS

Otorga permisos de escritura a la cuenta de servicio en el bucket de GCS:

  1. Ve a Cloud Storage > Buckets.
  2. Haz clic en el nombre de tu bucket.
  3. Ve a la pestaña Permisos.
  4. Haz clic en Otorgar acceso.
  5. Proporciona los siguientes detalles de configuración:
    • Agregar principales: Ingresa el correo electrónico de la cuenta de servicio (por ejemplo, bitwarden-events-collector-sa@PROJECT_ID.iam.gserviceaccount.com).
    • Asignar roles: Selecciona Administrador de objetos de Storage.
  6. Haz clic en Guardar.

Crear tema de Pub/Sub

Crea un tema de Pub/Sub en el que Cloud Scheduler publicará y al que se suscribirá la función de Cloud Run.

  1. En GCP Console, ve a Pub/Sub > Temas.
  2. Haz clic en Crear un tema.
  3. Proporciona los siguientes detalles de configuración:
    • ID del tema: Ingresa bitwarden-events-trigger.
    • Deja el resto de la configuración con sus valores predeterminados.
  4. Haz clic en Crear.

Crea una función de Cloud Run para recopilar registros

La función de Cloud Run se activa con mensajes de Pub/Sub de Cloud Scheduler para recuperar registros de la API de Bitwarden Events y escribirlos en GCS.

  1. En GCP Console, ve a Cloud Run.
  2. Haz clic en Crear servicio.
  3. Selecciona Función (usa un editor intercalado para crear una función).
  4. En la sección Configurar, proporciona los siguientes detalles de configuración:

    Configuración Valor
    Nombre del servicio bitwarden-events-collector
    Región Selecciona la región que coincida con tu bucket de GCS (por ejemplo, us-central1).
    Tiempo de ejecución Selecciona Python 3.12 o una versión posterior.
  5. En la sección Activador (opcional), haz lo siguiente:

    1. Haz clic en + Agregar activador.
    2. Selecciona Cloud Pub/Sub.
    3. En Selecciona un tema de Cloud Pub/Sub, elige el tema de Pub/Sub (bitwarden-events-trigger).
    4. Haz clic en Guardar.
  6. En la sección Autenticación, haz lo siguiente:

    1. Selecciona Solicitar autenticación.
    2. Verifica Identity and Access Management (IAM).
  7. Desplázate hacia abajo y expande Contenedores, redes y seguridad.

  8. Ve a la pestaña Seguridad:

    • Cuenta de servicio: Selecciona la cuenta de servicio (bitwarden-events-collector-sa).
  9. Ve a la pestaña Contenedores:

    1. Haz clic en Variables y secretos.
    2. Haz clic en + Agregar variable para cada variable de entorno:
    Nombre de la variable Valor de ejemplo
    GCS_BUCKET bitwarden-events
    GCS_PREFIX bitwarden/events
    STATE_KEY bitwarden/events/state.json
    BW_CLIENT_ID organization.your-client-id
    BW_CLIENT_SECRET your-client-secret
    IDENTITY_URL https://identity.bitwarden.com/connect/token
    API_BASE https://api.bitwarden.com
    MAX_PAGES 10
  10. En la sección Variables y Secrets, desplázate hacia abajo hasta Solicitudes:

    • Tiempo de espera de la solicitud: Ingresa 600 segundos (10 minutos).
  11. Ve a la pestaña Configuración:

    • En la sección Recursos, haz lo siguiente:
      • Memoria: Selecciona 512 MiB o más.
      • CPU: Selecciona 1.
  12. En la sección Ajuste de escala de revisión, haz lo siguiente:

    • Cantidad mínima de instancias: Ingresa 0.
    • Cantidad máxima de instancias: Ingresa 100 (o ajusta según la carga esperada).
  13. Haz clic en Crear.

  14. Espera a que se cree el servicio (de 1 a 2 minutos).

  15. Después de crear el servicio, se abrirá automáticamente el editor de código intercalado.

Agregar el código de función

  1. Ingresa main en Punto de entrada de la función.
  2. En el editor de código intercalado, crea dos archivos:

    • Primer archivo: main.py:
    import functions_framework
    from google.cloud import storage
    import json
    import os
    import urllib3
    from datetime import datetime, timezone
    import base64
    
    # Initialize HTTP client with timeouts
    http = urllib3.PoolManager(
        timeout=urllib3.Timeout(connect=5.0, read=30.0),
        retries=False,
    )
    
    # Initialize Storage client
    storage_client = storage.Client()
    
    @functions_framework.cloud_event
    def main(cloud_event):
        """
        Cloud Run function triggered by Pub/Sub to fetch events from Bitwarden API and write to GCS.
    
        Args:
            cloud_event: CloudEvent object containing Pub/Sub message
        """
    
        # Get environment variables
        bucket_name = os.environ.get('GCS_BUCKET')
        prefix = os.environ.get('GCS_PREFIX', 'bitwarden/events').strip('/')
        state_key = os.environ.get('STATE_KEY', 'bitwarden/events/state.json')
    
        # Bitwarden API credentials
        identity_url = os.environ.get('IDENTITY_URL', 'https://identity.bitwarden.com/connect/token')
        api_base = os.environ.get('API_BASE', 'https://api.bitwarden.com').rstrip('/')
        client_id = os.environ.get('BW_CLIENT_ID')
        client_secret = os.environ.get('BW_CLIENT_SECRET')
        max_pages = int(os.environ.get('MAX_PAGES', '10'))
    
        if not all([bucket_name, client_id, client_secret]):
            print('Error: Missing required environment variables')
            return
    
        try:
            # Get GCS bucket
            bucket = storage_client.bucket(bucket_name)
    
            # Load state (continuation token)
            state = load_state(bucket, state_key)
            continuation_token = state.get('continuationToken')
    
            print(f'Processing events with continuation token: {continuation_token}')
    
            # Get OAuth token
            access_token = get_oauth_token(identity_url, client_id, client_secret)
    
            # Fetch events from Bitwarden API
            run_timestamp = int(datetime.now(timezone.utc).timestamp())
            pages = 0
            total_events = 0
            written_files = []
    
            while pages < max_pages:
                events_data = fetch_events(api_base, access_token, continuation_token)
    
                # Extract events array from API response
                events = events_data.get('data', [])
    
                # Only write file if there are events
                if events:
                    gcs_key = write_events_jsonl(bucket, events, prefix, run_timestamp, pages)
                    if gcs_key:
                        written_files.append(gcs_key)
                    total_events += len(events)
    
                pages += 1
    
                # Check for next page token
                next_token = events_data.get('continuationToken')
                if next_token:
                    continuation_token = next_token
                    continue
                else:
                    # No more pages
                    break
    
            # Save state only if there are more pages to continue in next run
            # If we hit MAX_PAGES and there's still a continuation token, save it
            # Otherwise, clear the state (set to None)
            save_state(bucket, state_key, {
                'continuationToken': continuation_token if pages >= max_pages and continuation_token else None
            })
    
            print(f'Successfully processed {total_events} events across {pages} pages')
            print(f'Files written: {len(written_files)}')
    
        except Exception as e:
            print(f'Error processing events: {str(e)}')
            raise
    
    def load_state(bucket, key):
        """Load state from GCS."""
        try:
            blob = bucket.blob(key)
            if blob.exists():
                state_data = blob.download_as_text()
                return json.loads(state_data)
        except Exception as e:
            print(f'Warning: Could not load state: {str(e)}')
        return {}
    
    def save_state(bucket, key, state):
        """Save state to GCS."""
        try:
            blob = bucket.blob(key)
            blob.upload_from_string(
                json.dumps(state),
                content_type='application/json'
            )
        except Exception as e:
            print(f'Warning: Could not save state: {str(e)}')
    
    def get_oauth_token(identity_url, client_id, client_secret):
        """Get OAuth 2.0 access token from Bitwarden."""
        body_data = {
            'grant_type': 'client_credentials',
            'scope': 'api.organization',
            'client_id': client_id,
            'client_secret': client_secret
        }
    
        encoded_data = '&'.join([f'{k}={v}' for k, v in body_data.items()]).encode('utf-8')
    
        response = http.request(
            'POST',
            identity_url,
            body=encoded_data,
            headers={'Content-Type': 'application/x-www-form-urlencoded'}
        )
    
        if response.status != 200:
            raise Exception(f'Failed to get OAuth token: {response.status} {response.data.decode("utf-8")}')
    
        token_data = json.loads(response.data.decode('utf-8'))
        return token_data['access_token']
    
    def fetch_events(api_base, access_token, continuation_token=None):
        """Fetch events from Bitwarden API with pagination."""
        url = f'{api_base}/public/events'
        if continuation_token:
            url += f'?continuationToken={continuation_token}'
    
        response = http.request(
            'GET',
            url,
            headers={
                'Authorization': f'Bearer {access_token}',
                'Accept': 'application/json'
            }
        )
    
        if response.status == 429:
            retry_after = int(response.headers.get('Retry-After', '60'))
            print(f'Rate limited (429). Retrying after {retry_after}s...')
            import time
            time.sleep(retry_after)
            return fetch_events(api_base, access_token, continuation_token)
    
        if response.status != 200:
            raise Exception(f'Failed to fetch events: {response.status} {response.data.decode("utf-8")}')
    
        return json.loads(response.data.decode('utf-8'))
    
    def write_events_jsonl(bucket, events, prefix, run_timestamp, page_index):
        """
        Write events in JSONL format (one JSON object per line).
        Only writes if there are events to write.
        Returns the GCS key of the written file.
        """
        if not events:
            return None
    
        # Build JSONL content: one event per line
        lines = [json.dumps(event, separators=(',', ':')) for event in events]
        jsonl_content = '\n'.join(lines) + '\n'  # JSONL format with trailing newline
    
        # Generate unique filename with page number to avoid conflicts
        timestamp_str = datetime.fromtimestamp(run_timestamp, tz=timezone.utc).strftime('%Y/%m/%d/%H%M%S')
        key = f'{prefix}/{timestamp_str}-page{page_index:05d}-bitwarden-events.jsonl'
    
        blob = bucket.blob(key)
        blob.upload_from_string(
            jsonl_content,
            content_type='application/x-ndjson'
        )
    
        print(f'Wrote {len(events)} events to {key}')
        return key
    
    • Segundo archivo: requirements.txt:
    functions-framework==3.*
    google-cloud-storage==2.*
    urllib3>=2.0.0
    
  3. Haz clic en Implementar para guardar y, luego, implementar la función.

  4. Espera a que se complete la implementación (de 2 a 3 minutos).

Crea un trabajo de Cloud Scheduler

Cloud Scheduler publica mensajes en el tema de Pub/Sub a intervalos regulares, lo que activa la función de Cloud Run.

  1. En GCP Console, ve a Cloud Scheduler.
  2. Haz clic en Crear trabajo.
  3. Proporciona los siguientes detalles de configuración:

    Configuración Valor
    Nombre bitwarden-events-hourly
    Región Selecciona la misma región que la función de Cloud Run
    Frecuencia 0 * * * * (cada hora, en punto)
    Zona horaria Selecciona la zona horaria (se recomienda UTC)
    Tipo de orientación Pub/Sub
    Tema Selecciona el tema de Pub/Sub (bitwarden-events-trigger).
    Cuerpo del mensaje {} (objeto JSON vacío)
  4. Haz clic en Crear.

Opciones de frecuencia de programación

  • Elige la frecuencia según los requisitos de latencia y volumen de registros:

    Frecuencia Expresión cron Caso de uso
    Cada 5 minutos */5 * * * * Alto volumen y baja latencia
    Cada 15 minutos */15 * * * * Volumen medio
    Cada 1 hora 0 * * * * Estándar (opción recomendada)
    Cada 6 horas 0 */6 * * * Procesamiento por lotes y volumen bajo
    Diario 0 0 * * * Recopilación de datos históricos

Prueba la integración

  1. En la consola de Cloud Scheduler, busca tu trabajo.
  2. Haz clic en Forzar ejecución para activar el trabajo de forma manual.
  3. Espera unos segundos.
  4. Ve a Cloud Run > Servicios.
  5. Haz clic en el nombre de tu función (bitwarden-events-collector).
  6. Haz clic en la pestaña Registros.
  7. Verifica que la función se haya ejecutado correctamente. Busca lo siguiente:

    Processing events with continuation token: None
    Page 1: Retrieved X events
    Wrote X events to bitwarden/events/YYYY/MM/DD/HHMMSS-page00000-bitwarden-events.jsonl
    Successfully processed X events across 1 pages
    
  8. Ve a Cloud Storage > Buckets.

  9. Haz clic en el nombre de tu bucket.

  10. Navega a la carpeta del prefijo (bitwarden/events/).

  11. Verifica que se haya creado un archivo .jsonl nuevo con la marca de tiempo actual.

Si ves errores en los registros, haz lo siguiente:

  • HTTP 401: Verifica las credenciales de la API en las variables de entorno
  • HTTP 403: Verifica que la cuenta tenga los permisos necesarios y que la función Eventos esté habilitada en la configuración de la organización.
  • HTTP 429: Limitación de frecuencia. La función volverá a intentarlo automáticamente con una espera exponencial.
  • Faltan variables de entorno: Verifica que estén configuradas todas las variables requeridas.

Recupera la cuenta de servicio de Google SecOps

Las Operaciones de seguridad de Google usan una cuenta de servicio única para leer datos de tu bucket de GCS. Debes otorgar acceso a tu bucket a esta cuenta de servicio.

Obtén el correo electrónico de la cuenta de servicio

  1. Ve a Configuración de SIEM > Feeds.
  2. Haz clic en Agregar feed nuevo.
  3. Haz clic en Configura un feed único.
  4. En el campo Nombre del feed, ingresa un nombre para el feed (por ejemplo, Bitwarden Events).
  5. Selecciona Google Cloud Storage V2 como el Tipo de fuente.
  6. Selecciona Eventos de Bitwarden como el Tipo de registro.
  7. Haz clic en Obtener cuenta de servicio. Se mostrará un correo electrónico único de la cuenta de servicio, por ejemplo:

    chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.com
    
  8. Copia esta dirección de correo electrónico para usarla en el siguiente paso.

Otorga permisos de IAM a la cuenta de servicio de Google SecOps

La cuenta de servicio de Google SecOps necesita el rol de visualizador de objetos de almacenamiento en tu bucket de GCS.

  1. Ve a Cloud Storage > Buckets.
  2. Haz clic en el nombre de tu bucket.
  3. Ve a la pestaña Permisos.
  4. Haz clic en Otorgar acceso.
  5. Proporciona los siguientes detalles de configuración:
    • Agregar principales: Pega el correo electrónico de la cuenta de servicio de Google SecOps.
    • Asignar roles: Selecciona Visualizador de objetos de Storage.
  6. Haz clic en Guardar.

Configura un feed en Google SecOps para transferir los registros de eventos de Bitwarden Enterprise

  1. Ve a Configuración de SIEM > Feeds.
  2. Haz clic en Agregar feed nuevo.
  3. Haz clic en Configura un feed único.
  4. En el campo Nombre del feed, ingresa un nombre para el feed (por ejemplo, Bitwarden Events).
  5. Selecciona Google Cloud Storage V2 como el Tipo de fuente.
  6. Selecciona Eventos de Bitwarden como el Tipo de registro.
  7. Haz clic en Siguiente.
  8. Especifica valores para los siguientes parámetros de entrada:

    • URL del bucket de almacenamiento: Ingresa el URI del bucket de GCS con la ruta de acceso del prefijo:

      gs://bitwarden-events/bitwarden/events/
      
      • Reemplaza lo siguiente:

        • bitwarden-events: Es el nombre de tu bucket de GCS.
        • bitwarden/events/: Es el prefijo o la ruta de acceso a la carpeta en la que se almacenan los registros.
    • Opción de borrado de la fuente: Selecciona la opción de borrado según tu preferencia:

      • Nunca: Nunca borra ningún archivo después de las transferencias (se recomienda para las pruebas).
      • Borrar archivos transferidos: Borra los archivos después de la transferencia exitosa.
      • Borrar los archivos transferidos y los directorios vacíos: Borra los archivos y los directorios vacíos después de la transferencia exitosa.

    • Antigüedad máxima del archivo: Incluye los archivos modificados en la cantidad de días especificada. El valor predeterminado es de 180 días.

    • Espacio de nombres del recurso: Es el espacio de nombres del recurso.

    • Etiquetas de transmisión: Es la etiqueta que se aplicará a los eventos de este feed.

  9. Haz clic en Siguiente.

  10. Revisa la nueva configuración del feed en la pantalla Finalizar y, luego, haz clic en Enviar.

Tabla de asignación de UDM

Campo de registro Asignación de UDM Lógica
actingUserId target.user.userid Si enriched.actingUser.userId está vacío o es nulo, este campo se usa para completar el campo target.user.userid.
collectionID security_result.detection_fields.key Propaga el campo de clave dentro de detection_fields en security_result.
collectionID security_result.detection_fields.value Propaga el campo de valor dentro de detection_fields en security_result.
fecha metadata.event_timestamp Se analizó y convirtió a un formato de marca de tiempo, y se asignó a event_timestamp.
enriched.actingUser.accessAll security_result.rule_labels.key Establece el valor en "Access_All" dentro de rule_labels en security_result.
enriched.actingUser.accessAll security_result.rule_labels.value Propaga el campo de valor dentro de rule_labels en security_result con el valor de enriched.actingUser.accessAll convertido en cadena.
enriched.actingUser.email target.user.email_addresses Propaga el campo email_addresses dentro de target.user.
enriched.actingUser.id metadata.product_log_id Propaga el campo product_log_id dentro de los metadatos.
enriched.actingUser.id target.labels.key Establece el valor en "ID" dentro de target.labels.
enriched.actingUser.id target.labels.value Propaga el campo de valor dentro de target.labels con el valor de enriched.actingUser.id.
enriched.actingUser.name target.user.user_display_name Propaga el campo user_display_name dentro de target.user.
enriched.actingUser.object target.labels.key Establece el valor en "Object" dentro de target.labels.
enriched.actingUser.object target.labels.value Completa el campo de valor dentro de target.labels con el valor de enriched.actingUser.object.
enriched.actingUser.resetPasswordEnrolled target.labels.key Establece el valor en "ResetPasswordEnrolled" dentro de target.labels.
enriched.actingUser.resetPasswordEnrolled target.labels.value Propaga el campo de valor dentro de target.labels con el valor de enriched.actingUser.resetPasswordEnrolled convertido en cadena.
enriched.actingUser.twoFactorEnabled security_result.rule_labels.key Establece el valor en "Two Factor Enabled" dentro de rule_labels en security_result.
enriched.actingUser.twoFactorEnabled security_result.rule_labels.value Propaga el campo de valor dentro de rule_labels en security_result con el valor de enriched.actingUser.twoFactorEnabled convertido en cadena.
enriched.actingUser.userId target.user.userid Propaga el campo userid dentro de target.user.
enriched.collection.id additional.fields.key Establece el valor en "ID de colección" dentro de additional.fields.
enriched.collection.id additional.fields.value.string_value Propaga el campo string_value dentro de additional.fields con el valor de enriched.collection.id.
enriched.collection.object additional.fields.key Establece el valor en "Objeto de colección" dentro de additional.fields.
enriched.collection.object additional.fields.value.string_value Propaga el campo string_value dentro de additional.fields con el valor de enriched.collection.object.
enriched.type metadata.product_event_type Propaga el campo product_event_type dentro de los metadatos.
groupId target.user.group_identifiers Agrega el valor al array group_identifiers dentro de target.user.
ipAddress principal.ip Es la dirección IP extraída del campo y asignada a principal.ip.
N/A extensions.auth El analizador crea un objeto vacío.
N/A metadata.event_type Se determina en función de enriched.type y la presencia de información del principal y del objetivo. Los valores posibles son USER_LOGIN, STATUS_UPDATE y GENERIC_EVENT.
N/A security_result.action Se determina según el valor de enriched.type. Valores posibles: ALLOW, BLOCK.
objeto additional.fields.key Establece el valor en "Object" dentro de additional.fields.
objeto additional.fields.value Propaga el campo de valor dentro de additional.fields con el valor del objeto.

¿Necesitas más ayuda? Obtén respuestas de miembros de la comunidad y profesionales de Google SecOps.