Recopila registros de Cisco AMP para Endpoints

Compatible con:

En este documento, se explica cómo transferir registros de Cisco AMP for Endpoints a Google Security Operations con Amazon S3. El analizador transforma los registros sin procesar con formato JSON en un formato estructurado que cumple con el UDM de Chronicle. Extrae campos de objetos JSON anidados, los asigna al esquema del UDM, identifica categorías de eventos, asigna niveles de gravedad y, en última instancia, genera un resultado de eventos unificado, que marca alertas de seguridad cuando se cumplen condiciones específicas.

Antes de comenzar

  • Una instancia de Google SecOps
  • Acceso con privilegios a la consola de Cisco AMP for Endpoints
  • Acceso con privilegios a AWS (S3, IAM, Lambda, EventBridge)

Recopila los requisitos previos de Cisco AMP para Endpoints (IDs, claves de API, IDs de organización, tokens)

  1. Accede a la consola de Cisco AMP para endpoints.
  2. Ve a Accounts > API Credentials.
  3. Haz clic en New API Credential para crear una nueva clave de API y un ID de cliente.
  4. Proporciona los siguientes detalles de configuración:
    • Nombre de la aplicación: Ingresa un nombre (por ejemplo, Chronicle SecOps Integration).
    • Alcance: Selecciona Solo lectura para la sondeo de eventos básico o Lectura y escritura si planeas crear flujos de eventos.
  5. Haz clic en Crear.
  6. Copia y guarda en una ubicación segura los siguientes detalles:
    • ID de cliente de la API de terceros
    • Clave de API
    • URL base de la API: Según tu región:
      • EE.UU.: https://api.amp.cisco.com
      • UE: https://api.eu.amp.cisco.com
      • APJC: https://api.apjc.amp.cisco.com

Configura el bucket de AWS S3 y el IAM para Google SecOps

  1. Crea un bucket de Amazon S3 siguiendo esta guía del usuario: Crea un bucket
  2. Guarda el Nombre y la Región del bucket para futuras referencias (por ejemplo, cisco-amp-logs).
  3. Crea un usuario siguiendo esta guía del usuario: Cómo crear un usuario de IAM.
  4. Selecciona el usuario creado.
  5. Selecciona la pestaña Credenciales de seguridad.
  6. Haz clic en Crear clave de acceso en la sección Claves de acceso.
  7. Selecciona Servicio de terceros como Caso de uso.
  8. Haz clic en Siguiente.
  9. Opcional: Agrega una etiqueta de descripción.
  10. Haz clic en Crear clave de acceso.
  11. Haz clic en Descargar archivo CSV para guardar la clave de acceso y la clave de acceso secreta para consultarlas en el futuro.
  12. Haz clic en Listo.
  13. Selecciona la pestaña Permisos.
  14. Haz clic en Agregar permisos en la sección Políticas de permisos.
  15. Selecciona Agregar permisos.
  16. Selecciona Adjuntar políticas directamente.
  17. Busca la política AmazonS3FullAccess.
  18. Selecciona la política.
  19. Haz clic en Siguiente.
  20. Haz clic en Agregar permisos.

Configura la política y el rol de IAM para las cargas de S3

  1. En la consola de AWS, ve a IAM > Políticas.
  2. Haz clic en Crear política > pestaña JSON.
  3. Ingresa la siguiente política:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Sid": "AllowPutObjects",
          "Effect": "Allow",
          "Action": "s3:PutObject",
          "Resource": "arn:aws:s3:::cisco-amp-logs/*"
        },
        {
          "Sid": "AllowGetStateObject",
          "Effect": "Allow",
          "Action": "s3:GetObject",
          "Resource": "arn:aws:s3:::cisco-amp-logs/cisco-amp-events/state.json"
        }
      ]
    }
    
    • Reemplaza cisco-amp-logs si ingresaste un nombre de bucket diferente.
  4. Haz clic en Siguiente > Crear política.

  5. Ve a IAM > Roles > Crear rol > Servicio de AWS > Lambda.

  6. Adjunta la política recién creada.

  7. Asigna el nombre cisco-amp-lambda-role al rol y haz clic en Crear rol.

Crea la función Lambda

  1. En la consola de AWS, ve a Lambda > Functions > Create function.
  2. Haz clic en Author from scratch.
  3. Proporciona los siguientes detalles de configuración:

    Configuración Valor
    Nombre cisco-amp-events-collector
    Tiempo de ejecución Python 3.13
    Arquitectura x86_64
    Rol de ejecución cisco-amp-lambda-role
  4. Después de crear la función, abre la pestaña Code, borra el código auxiliar y, luego, ingresa el siguiente código (cisco-amp-events-collector.py):

    import json
    import boto3
    import urllib3
    import base64
    from datetime import datetime, timedelta
    import os
    import logging
    
    # Configure logging
    logger = logging.getLogger()
    logger.setLevel(logging.INFO)
    
    # AWS S3 client and HTTP pool manager
    s3_client = boto3.client('s3')
    http = urllib3.PoolManager()
    
    def lambda_handler(event, context):
        """
        AWS Lambda handler to fetch Cisco AMP events and store them in S3
        """
    
        try:
            # Get environment variables
            s3_bucket = os.environ['S3_BUCKET']
            s3_prefix = os.environ['S3_PREFIX']
            state_key = os.environ['STATE_KEY']
            api_client_id = os.environ['AMP_CLIENT_ID']
            api_key = os.environ['AMP_API_KEY']
            api_base = os.environ['API_BASE']
    
            # Optional parameters
            page_size = int(os.environ.get('PAGE_SIZE', '500'))
            max_pages = int(os.environ.get('MAX_PAGES', '10'))
    
            logger.info(f"Starting Cisco AMP events collection for bucket: {s3_bucket}")
    
            # Get last run timestamp from state file
            last_timestamp = get_last_timestamp(s3_bucket, state_key)
            if not last_timestamp:
                last_timestamp = (datetime.utcnow() - timedelta(days=1)).isoformat() + 'Z'
    
            # Create Basic Auth header
            auth_header = base64.b64encode(f"{api_client_id}:{api_key}".encode()).decode()
            headers = {
                'Authorization': f'Basic {auth_header}',
                'Accept': 'application/json'
            }
    
            # Build initial API URL
            base_url = f"{api_base}/v1/events"
            next_url = f"{base_url}?limit={page_size}&start_date={last_timestamp}"
    
            all_events = []
            page_count = 0
    
            while next_url and page_count < max_pages:
                logger.info(f"Fetching page {page_count + 1} from: {next_url}")
    
                # Make API request using urllib3
                response = http.request('GET', next_url, headers=headers, timeout=60)
    
                if response.status != 200:
                    raise RuntimeError(f"API request failed: {response.status} {response.data[:256]!r}")
    
                data = json.loads(response.data.decode('utf-8'))
    
                # Extract events from response
                events = data.get('data', [])
                if events:
                    all_events.extend(events)
                    logger.info(f"Collected {len(events)} events from page {page_count + 1}")
    
                    # Check for next page
                    next_url = data.get('metadata', {}).get('links', {}).get('next')
                    page_count += 1
                else:
                    logger.info("No events found on current page")
                    break
    
            logger.info(f"Total events collected: {len(all_events)}")
    
            # Store events in S3 if any were collected
            if all_events:
                timestamp_str = datetime.utcnow().strftime('%Y%m%d_%H%M%S')
                s3_key = f"{s3_prefix}cisco_amp_events_{timestamp_str}.ndjson"
    
                # Convert events to NDJSON format (one JSON object per line)
                ndjson_content = 'n'.join(json.dumps(event) for event in all_events)
    
                # Upload to S3
                s3_client.put_object(
                    Bucket=s3_bucket,
                    Key=s3_key,
                    Body=ndjson_content.encode('utf-8'),
                    ContentType='application/x-ndjson'
                )
    
                logger.info(f"Uploaded {len(all_events)} events to s3://{s3_bucket}/{s3_key}")
    
            # Update state file with current timestamp
            current_timestamp = datetime.utcnow().isoformat() + 'Z'
            update_state(s3_bucket, state_key, current_timestamp)
    
            return {
                'statusCode': 200,
                'body': json.dumps({
                    'message': 'Success',
                    'events_collected': len(all_events),
                    'pages_processed': page_count
                })
            }
    
        except Exception as e:
            logger.error(f"Error in lambda_handler: {str(e)}")
            return {
                'statusCode': 500,
                'body': json.dumps({
                    'error': str(e)
                })
            }
    
    def get_last_timestamp(bucket, state_key):
        """
        Get the last run timestamp from S3 state file
        """
        try:
            response = s3_client.get_object(Bucket=bucket, Key=state_key)
            state_data = json.loads(response['Body'].read().decode('utf-8'))
            return state_data.get('last_timestamp')
        except s3_client.exceptions.NoSuchKey:
            logger.info("No state file found, starting from 24 hours ago")
            return None
        except Exception as e:
            logger.warning(f"Error reading state file: {str(e)}")
            return None
    
    def update_state(bucket, state_key, timestamp):
        """
        Update the state file with the current timestamp
        """
        try:
            state_data = {
                'last_timestamp': timestamp,
                'updated_at': datetime.utcnow().isoformat() + 'Z'
            }
    
            s3_client.put_object(
                Bucket=bucket,
                Key=state_key,
                Body=json.dumps(state_data).encode('utf-8'),
                ContentType='application/json'
            )
    
            logger.info(f"Updated state file with timestamp: {timestamp}")
    
        except Exception as e:
            logger.error(f"Error updating state file: {str(e)}")
    
  5. Ve a Configuration > Environment variables.

  6. Haz clic en Editar > Agregar nueva variable de entorno.

  7. Ingresa las siguientes variables de entorno proporcionadas y reemplázalas por tus valores.

    Clave Valor de ejemplo
    S3_BUCKET cisco-amp-logs
    S3_PREFIX cisco-amp-events/
    STATE_KEY cisco-amp-events/state.json
    AMP_CLIENT_ID <your-client-id>
    AMP_API_KEY <your-api-key>
    API_BASE https://api.amp.cisco.com (o la URL de tu región)
    PAGE_SIZE 500
    MAX_PAGES 10
  8. Después de crear la función, permanece en su página (o abre Lambda > Functions > cisco-amp-events-collector).

  9. Selecciona la pestaña Configuración.

  10. En el panel Configuración general, haz clic en Editar.

  11. Cambia Tiempo de espera a 5 minutos (300 segundos) y haz clic en Guardar.

Crea una programación de EventBridge

  1. Ve a Amazon EventBridge > Scheduler > Create schedule.
  2. Proporciona los siguientes detalles de configuración:
    • Programación recurrente: Frecuencia (1 hour)
    • Destino: Tu función Lambda cisco-amp-events-collector.
    • Nombre: cisco-amp-events-collector-1h.
  3. Haz clic en Crear programación.

Opcional: Crea un usuario y claves de IAM de solo lectura para Google SecOps

  1. Ve a Consola de AWS > IAM > Usuarios > Agregar usuarios.
  2. Haz clic en Agregar usuarios.
  3. Proporciona los siguientes detalles de configuración:
    • Usuario: Ingresa secops-reader.
    • Tipo de acceso: Selecciona Clave de acceso: Acceso programático.
  4. Haz clic en Crear usuario.
  5. Adjunta una política de lectura mínima (personalizada): Usuarios > secops-reader > Permisos > Agregar permisos > Adjuntar políticas directamente > Crear política.
  6. En el editor de JSON, ingresa la siguiente política:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Effect": "Allow",
          "Action": ["s3:GetObject"],
          "Resource": "arn:aws:s3:::cisco-amp-logs/*"
        },
        {
          "Effect": "Allow",
          "Action": ["s3:ListBucket"],
          "Resource": "arn:aws:s3:::cisco-amp-logs"
        }
      ]
    }
    
  7. Configura el nombre como secops-reader-policy.

  8. Ve a Crear política > busca o selecciona > Siguiente > Agregar permisos.

  9. Ve a Credenciales de seguridad > Claves de acceso > Crear clave de acceso.

  10. Descarga el archivo CSV (estos valores se ingresan en el feed).

Configura un feed en Google SecOps para transferir registros de Cisco AMP for Endpoints

  1. Ve a Configuración de SIEM > Feeds.
  2. Haz clic en + Agregar feed nuevo.
  3. En el campo Nombre del feed, ingresa un nombre para el feed (por ejemplo, Cisco AMP for Endpoints logs).
  4. Selecciona Amazon S3 V2 como el Tipo de fuente.
  5. Selecciona Cisco AMP como el Tipo de registro.
  6. Haz clic en Siguiente.
  7. Especifica valores para los siguientes parámetros de entrada:
    • URI de S3: s3://cisco-amp-logs/cisco-amp-events/
    • Opciones de borrado de la fuente: Selecciona la opción de borrado según tu preferencia.
    • Antigüedad máxima del archivo: Incluye los archivos modificados en la cantidad de días especificada. El valor predeterminado es de 180 días.
    • ID de clave de acceso: Clave de acceso del usuario con acceso al bucket de S3.
    • Clave de acceso secreta: Clave secreta del usuario con acceso al bucket de S3.
    • Espacio de nombres del recurso: Es el espacio de nombres del recurso.
    • Etiquetas de transmisión: Es la etiqueta que se aplica a los eventos de este feed.
  8. Haz clic en Siguiente.
  9. Revisa la nueva configuración del feed en la pantalla Finalizar y, luego, haz clic en Enviar.

Tabla de asignación de UDM

Campo de registro Asignación de UDM Lógica
activo read_only_udm.principal.asset.active Se asigna directamente desde computer.active
connector_guid read_only_udm.principal.asset.uuid Se asigna directamente desde computer.connector_guid
fecha read_only_udm.metadata.event_timestamp.seconds Se asigna directamente desde date después de convertirlo en una marca de tiempo.
IA read_only_udm.security_result.threat_name Se asigna directamente desde detection
detection_id read_only_udm.security_result.detection_fields.value Se asigna directamente desde detection_id
disposition read_only_udm.security_result.description Se asigna directamente desde file.disposition
error.error_code read_only_udm.security_result.detection_fields.value Se asigna directamente desde error.error_code
error.description read_only_udm.security_result.detection_fields.value Se asigna directamente desde error.description
event_type read_only_udm.metadata.product_event_type Se asigna directamente desde event_type
event_type_id read_only_udm.metadata.product_log_id Se asigna directamente desde event_type_id
external_ip read_only_udm.principal.asset.external_ip Se asigna directamente desde computer.external_ip
file.file_name read_only_udm.target.file.names Se asigna directamente desde file.file_name
file.file_path read_only_udm.target.file.full_path Se asigna directamente desde file.file_path
file.identity.md5 read_only_udm.security_result.about.file.md5 Se asigna directamente desde file.identity.md5
file.identity.md5 read_only_udm.target.file.md5 Se asigna directamente desde file.identity.md5
file.identity.sha1 read_only_udm.security_result.about.file.sha1 Se asigna directamente desde file.identity.sha1
file.identity.sha1 read_only_udm.target.file.sha1 Se asigna directamente desde file.identity.sha1
file.identity.sha256 read_only_udm.security_result.about.file.sha256 Se asigna directamente desde file.identity.sha256
file.identity.sha256 read_only_udm.target.file.sha256 Se asigna directamente desde file.identity.sha256
file.parent.disposition read_only_udm.target.resource.attribute.labels.value Se asigna directamente desde file.parent.disposition
file.parent.file_name read_only_udm.target.resource.attribute.labels.value Se asigna directamente desde file.parent.file_name
file.parent.identity.md5 read_only_udm.target.resource.attribute.labels.value Se asigna directamente desde file.parent.identity.md5
file.parent.identity.sha1 read_only_udm.target.resource.attribute.labels.value Se asigna directamente desde file.parent.identity.sha1
file.parent.identity.sha256 read_only_udm.target.resource.attribute.labels.value Se asigna directamente desde file.parent.identity.sha256
file.parent.process_id read_only_udm.security_result.about.process.parent_process.pid Se asigna directamente desde file.parent.process_id
file.parent.process_id read_only_udm.target.process.parent_process.pid Se asigna directamente desde file.parent.process_id
Nombre de host read_only_udm.principal.asset.hostname Se asigna directamente desde computer.hostname
Nombre de host read_only_udm.target.hostname Se asigna directamente desde computer.hostname
Nombre de host read_only_udm.target.asset.hostname Se asigna directamente desde computer.hostname
ip read_only_udm.principal.asset.ip Se asigna directamente desde computer.network_addresses.ip
ip read_only_udm.principal.ip Se asigna directamente desde computer.network_addresses.ip
ip read_only_udm.security_result.about.ip Se asigna directamente desde computer.network_addresses.ip
mac read_only_udm.principal.mac Se asigna directamente desde computer.network_addresses.mac
mac read_only_udm.security_result.about.mac Se asigna directamente desde computer.network_addresses.mac
gravedad, read_only_udm.security_result.severity Se asigna desde severity según la siguiente lógica:
- "Medio" -> "MEDIUM"
- "Alto" o "Crítico" -> "HIGH"
- "Bajo" -> "LOW"
- De lo contrario -> "UNKNOWN_SEVERITY"
timestamp read_only_udm.metadata.event_timestamp.seconds Se asigna directamente desde timestamp
usuario read_only_udm.security_result.about.user.user_display_name Se asigna directamente desde computer.user
usuario read_only_udm.target.user.user_display_name Se asigna directamente desde computer.user
vulnerabilities.cve read_only_udm.extensions.vulns.vulnerabilities.cve_id Se asigna directamente desde vulnerabilities.cve
vulnerabilities.name read_only_udm.extensions.vulns.vulnerabilities.name Se asigna directamente desde vulnerabilities.name
vulnerabilities.score read_only_udm.extensions.vulns.vulnerabilities.cvss_base_score Se asigna directamente desde vulnerabilities.score después de la conversión a float.
vulnerabilities.url read_only_udm.extensions.vulns.vulnerabilities.vendor_knowledge_base_article_id Se asigna directamente desde vulnerabilities.url
vulnerabilities.version read_only_udm.extensions.vulns.vulnerabilities.cvss_version Se asigna directamente desde vulnerabilities.version
is_alert Se establece como verdadero si event_type es uno de los siguientes: "Se detectó una amenaza", "Prevención de explotación", "Se ejecutó software malicioso", "Posible infección por dropper", "Varios archivos infectados", "Se detectó una aplicación vulnerable" o si security_result.severity es "ALTO".
is_significant Se establece como verdadero si event_type es uno de los siguientes: "Se detectó una amenaza", "Prevención de explotación", "Se ejecutó software malicioso", "Posible infección por dropper", "Varios archivos infectados", "Se detectó una aplicación vulnerable" o si security_result.severity es "ALTO".
read_only_udm.metadata.event_type Se determina en función de los valores de event_type y security_result.severity.
: Si event_type es uno de los siguientes: "Executed malware", "Threat Detected", "Potential Dropper Infection", "Cloud Recall Detection", "Malicious Activity Detection", "Exploit Prevention", "Multiple Infected Files", "Cloud IOC", "System Process Protection", "Vulnerable Application Detected", "Threat Quarantined", "Execution Blocked", "Cloud Recall Quarantine Successful", "Cloud Recall Restore from Quarantine Failed", "Cloud Recall Quarantine Attempt Failed" o "Quarantine Failure", el tipo de evento se establece en "SCAN_FILE".
: Si security_result.severity es "HIGH", el tipo de evento se establece en "SCAN_FILE".
: Si has_principal y has_target son verdaderos, el tipo de evento se establece como "SCAN_UNCATEGORIZED".
: De lo contrario, el tipo de evento se establece como "GENERIC_EVENT".
read_only_udm.metadata.log_type Se establece en "CISCO_AMP".
read_only_udm.metadata.vendor_name Se establece en "CISCO_AMP".
read_only_udm.security_result.about.file.full_path Se asigna directamente desde file.file_path
read_only_udm.security_result.about.hostname Se asigna directamente desde computer.hostname
read_only_udm.security_result.about.user.user_display_name Se asigna directamente desde computer.user
read_only_udm.security_result.detection_fields.key Se establece en "ID de detección" para detection_id, "Código de error" para error.error_code, "Descripción del error" para error.description, "Disposición principal" para file.parent.disposition, "Nombre del archivo principal" para file.parent.file_name, "MD5 principal" para file.parent.identity.md5, "SHA1 principal" para file.parent.identity.sha1 y "SHA256 principal" para file.parent.identity.sha256.
read_only_udm.security_result.summary Se establece en event_type si event_type es uno de los siguientes: "Se detectó una amenaza", "Prevención de explotación", "Se ejecutó software malicioso", "Posible infección por dropper", "Varios archivos infectados", "Se detectó una aplicación vulnerable" o si security_result.severity es "ALTA".
read_only_udm.target.asset.ip Se asigna directamente desde computer.network_addresses.ip
read_only_udm.target.resource.attribute.labels.key Establece "Parent Disposition" para file.parent.disposition, "Parent File Name" para file.parent.file_name, "Parent MD5" para file.parent.identity.md5, "Parent SHA1" para file.parent.identity.sha1 y "Parent SHA256" para file.parent.identity.sha256.
timestamp.seconds Se asigna directamente desde date después de convertirlo en una marca de tiempo.

¿Necesitas más ayuda? Obtén respuestas de miembros de la comunidad y profesionales de Google SecOps.