In diesem Dokument wird ein bestimmter Typ von Bedrohungsergebnissen in Security Command Center beschrieben. Bedrohungsergebnisse werden von Bedrohungsdetektoren generiert, wenn sie eine potenzielle Bedrohung in Ihren Cloud-Ressourcen erkennen. Eine vollständige Liste der verfügbaren Bedrohungsergebnisse finden Sie im Index der Bedrohungsergebnisse.
Übersicht
Ein ML-Modell (maschinelles Lernen) hat ausgeführten Python-Code als schädlich identifiziert. Angreifer können Python verwenden, um Tools zu übertragen und Befehle ohne Binärdateien auszuführen.
Die Bedrohungserkennung für Agent Platform ist die Quelle dieses Ergebnisses.
Maßnahmen
So reagieren Sie auf dieses Ergebnis:
Details zu den Ergebnissen ansehen
Öffnen Sie das Ergebnis
Execution: Malicious Python executed, wie unter Ergebnisse prüfen beschrieben. Sehen Sie sich die Details auf den Tabs Zusammenfassung und JSON an.Sehen Sie sich auf dem Tab Zusammenfassung die Informationen in den folgenden Abschnitten an:
- Was wurde erkannt, insbesondere die folgenden Felder:
- Binärprogramm des Programms: Details zum Interpreter, der das Skript aufgerufen hat
- Skript: absoluter Pfad des Namens des Skripts auf dem Laufwerk; dieses
Attribut erscheint nur bei Skripten, die auf das Laufwerk geschrieben werden, nicht bei der literalen
Skriptausführung, z. B.
python3 -c - Argumente: die Argumente, die beim Aufrufen des Skripts angegeben werden
- Betroffene Ressource, insbesondere die folgenden Felder:
- Vollständiger Name der Ressource: der vollständige Name der Ressource
der betroffenen KI-Agenten
(eine
ReasoningEngineRessource)
- Vollständiger Name der Ressource: der vollständige Name der Ressource
der betroffenen KI-Agenten
(eine
- Weitere Informationen, insbesondere die folgenden Felder:
- VirusTotal-Indikator: Link zur VirusTotal-Analyseseite
- Was wurde erkannt, insbesondere die folgenden Felder:
Notieren Sie sich auf dem Tab JSON die folgenden Felder:
finding:processes:script:contents: Inhalt des ausgeführten Skripts, der aus Leistungsgründen möglicherweise gekürzt wurde; kann bei der Untersuchung helfensha256: der SHA-256-Hash vonscript.contents
resource:project_display_name: der Name des Projekts, das das Asset enthält.
Suchen Sie nach zugehörigen Ergebnissen, die für den betroffenen KI-Agenten zu einem ähnlichen Zeitpunkt aufgetreten sind. Wenn das Skript beispielsweise eine Binärdatei ablegt, suchen Sie nach Ergebnissen, die sich auf die Binärdatei beziehen. Solche Ergebnisse deuten möglicherweise darauf hin, dass diese Aktivität schädlich war und nicht auf einem Verstoß gegen Best Practices beruhte.
Überprüfen Sie die Einstellungen des betroffenen KI-Agenten.
Prüfen Sie die Logs des betroffenen KI-Agenten.
Angriffs- und Reaktionsmethoden untersuchen
- Prüfen Sie die MITRE-ATT&CK-Framework-Einträge für diesen Ergebnistyp: Befehls- und Skript Interpreter und Ingress-Tool Transfer.
- Prüfen Sie den SHA-256-Hashwert für die Binärdatei, die auf VirusTotal als schädlich gekennzeichnet wurde, indem Sie auf den Link unter VirusTotal-Indikator klicken. VirusTotal, ein Alphabet-eigener Dienst, der Kontext zu potenziell schädlichen Dateien, URLs, Domains und IP-Adressen bereitstellt.
- Wenn Sie einen Antwortplan entwickeln möchten, kombinieren Sie Ihre Prüfungsergebnisse mit der MITRE-Forschung und der VirusTotal-Analyse.
Reaktion implementieren
Informationen zu Reaktionsempfehlungen finden Sie unter Auf KI Bedrohungsergebnisse reagieren.
Nächste Schritte
- Informationen zum Arbeiten mit Bedrohungsergebnissen in Security Command Center
- Weitere Informationen finden Sie im Index der Bedrohungsergebnisse.
- Informationen zum Überprüfen von Ergebnissen über die Google Cloud Console
- Dienste, die Bedrohungsergebnisse generieren