Exécution : exécution d'un outil de reconnaissance local

Ce document décrit un type de résultat de détection de menace dans Security Command Center. Ces résultats sont générés par les détecteurs de menaces lorsqu'ils détectent une menace potentielle dans vos ressources cloud. Pour obtenir la liste complète des résultats de détection de menace disponibles, consultez cet index.

Présentation

Un processus a exécuté un outil de reconnaissance local dans la charge de travail agentique. Cet événement suggère qu'un pirate informatique potentiel recueille des informations sur l'environnement de charge de travail, telles que les configurations réseau, les processus actifs ou les systèmes de fichiers montés. Les pirates informatiques utilisent souvent ce type d'outil au début d'une attaque pour cartographier les cibles potentielles et identifier les points faibles. Il s'agit d'un résultat de gravité moyenne, car il indique que le pirate informatique sonde activement la charge de travail agentique pour trouver d'autres possibilités d'exploitation.

Agent Engine Threat Detection est la source de ce résultat.

Actions à mettre en place

Pour traiter ce résultat, procédez comme suit :

Examiner les détails des résultats

  1. Ouvrez le résultat Execution: Local Reconnaissance Tool Execution comme indiqué dans Examiner un résultat. Examinez les détails dans les onglets Résumé et JSON.

  2. Dans l'onglet Résumé, examinez les informations des sections suivantes :

    • Risque détecté, en particulier les champs suivants :
      • Binaire du programme : chemin absolu du binaire exécuté.
      • Arguments : arguments transmis lors de l'exécution du binaire.
    • Ressource concernée, en particulier le champs suivant :
  3. Dans l'onglet JSON, notez les champs suivants :

    • resource :
      • project_display_name : nom du projet contenant l'agent IA concerné
    • finding :
      • processes :
        • binary :
        • path : chemin d'accès complet du binaire exécuté.
      • args : arguments fournis lors de l'exécution du binaire.
  4. Identifiez d'autres résultats détectés à peu près au même moment pour l'agent IA concerné. Les résultats associés peuvent indiquer que cette activité était malveillante, et non qu'il s'agissait d'un manquement aux bonnes pratiques.

  5. Vérifiez les paramètres de l'agent IA concerné.

  6. Consultez les journaux de l'agent IA concerné.

Étudier les méthodes d'attaque et de réponse

  1. Examinez l'entrée du framework MITRE ATT&CK pour ce type de résultat : Analyse active.
  2. Pour élaborer votre plan de réponse, combinez les résultats de votre enquête aux recherches de MITRE.

Mettre en œuvre votre réponse

Pour obtenir des recommandations de réponse, consultez Répondre aux résultats de détection des menaces d'IA.

Étapes suivantes