Dieses Dokument enthält informelle Anleitungen dazu, wie Sie auf verdächtige Aktivitäten in Ihren KI-Ressourcen reagieren können. Die empfohlenen Schritte sind möglicherweise nicht für alle Ergebnisse geeignet und können sich auf Ihre Abläufe auswirken. Bevor Sie Maßnahmen ergreifen, sollten Sie die Ergebnisse untersuchen, die erhobenen Informationen bewerten und entscheiden, wie Sie reagieren möchten.
Die Techniken in diesem Dokument sind nicht zwangsläufig gegen frühere, aktuelle oder zukünftige Bedrohungen wirksam. Unter Bedrohungen beheben erfahren Sie, warum Security Command Center keine offizielle Korrekturmaßnahme für Bedrohungen bietet.
Hinweis
- Ergebnis überprüfen Notieren Sie sich die betroffenen Ressourcen und die erkannten Binärdateien, Prozesse oder Bibliotheken.
- Wenn Sie mehr über das Ergebnis erfahren möchten, das Sie untersuchen, sehen Sie im Index der Bedrohungsergebnisse nach.
Allgemeine Empfehlungen
- Wenden Sie sich an den Inhaber der betroffenen Ressource.
- Ermitteln Sie gemeinsam mit Ihrem Sicherheitsteam unbekannte Ressourcen, einschließlich Vertex AI Agent Engine-Instanzen, Sitzungen, Dienstkonten und Agent-Identitäten. Ressourcen löschen, die mit nicht autorisierten Konten erstellt wurden.
- Um IAM-Rollen mit zu vielen Berechtigungen zu identifizieren und zu beheben, verwenden Sie IAM Recommender. Löschen oder deaktivieren Sie potenziell gehackte Konten.
- Untersuchen Sie für die Enterprise-Dienststufe alle Ergebnisse zu Identität und Zugriff.
- Für weitere Untersuchungen können Sie Incident-Response-Services wie Mandiant nutzen.
- Sammeln und sichern Sie die Logs der betroffenen Ressourcen für die forensische Analyse.
Potenziell manipuliertes Dienstkonto oder potenziell manipulierte Agentenidentität
Wenn Sie eine kompromittierte Agent-Identität entfernen möchten, löschen Sie die entsprechende Vertex AI Agent Engine-Instanz.
Deaktivieren Sie das potenziell manipulierte Dienstkonto. Best Practices finden Sie unter Deaktivieren Sie nicht verwendete Dienstkonten, bevor sie gelöscht werden.
Deaktivieren Sie Dienstkontoschlüssel für das möglicherweise manipulierte Projekt.
Mit der Aktivitätsanalyse können Sie feststellen, wann Ihre Dienstkonten und Schlüssel zuletzt zum Aufrufen einer Google API verwendet wurden. Weitere Informationen finden Sie unter Aktuelle Nutzung von Dienstkonten und Schlüsseln ansehen.
Wenn Sie sicher sind, dass Sie das Dienstkonto gefahrlos löschen können, löschen Sie es.
Informationen zum Einschränken der Verwendung von Dienstkonten mit Organisationsrichtlinien finden Sie unter Nutzung von Dienstkonten einschränken.
Informationen zum Einschränken der Nutzung von Dienstkonten oder Dienstkontoschlüsseln mit Identity and Access Management finden Sie unter Zugriff auf Ressourcen verweigern.
Exfiltration und Extraktion
- Widerrufen Sie die Rollen für das Hauptkonto, das in der Zeile E-Mail-Adresse des Hauptkontos in den Details des Ergebnisses aufgeführt ist, bis die Untersuchung abgeschlossen ist.
- Wenn Sie die weitere Exfiltration verhindern möchten, fügen Sie den betroffenen Ressourcen restriktive IAM-Richtlinien hinzu.
- Um festzustellen, ob die betroffenen Datasets vertrauliche Informationen enthalten, prüfen Sie sie mit Sensitive Data Protection. Sie können den Inspektionsjob so konfigurieren, dass die Ergebnisse an Security Command Center gesendet werden. Je nach Menge der Informationen können die Kosten für Sensitive Data Protection erheblich sein. Halten Sie sich an die Best Practices, um die Kosten für den Schutz sensibler Daten zu kontrollieren.
- Verwenden Sie VPC Service Controls, um Sicherheitsperimeter für Datendienste wie BigQuery und Cloud SQL zu erstellen und so Datenübertragungen in Projekte außerhalb des Perimeters zu verhindern.
Verdächtige Tokengenerierung
Prüfen Sie, ob eine projektübergreifende Tokengenerierung erforderlich ist. Wenn sie nicht erforderlich ist, entfernen Sie die IAM-Rollenbindung im Zielprojekt, die dem Hauptkonto aus dem Quellprojekt die Berechtigung
iam.serviceAccounts.getAccessToken,iam.serviceAccounts.getOpenIdTokenoderiam.serviceAccounts.implicitDelegationgewährt.Untersuchen Sie die im Ergebnis angegebenen Logs, um die von Ihren Agent-Arbeitslasten verwendeten Methoden zur Tokengenerierung zu prüfen.
Nächste Schritte
- Informationen zum Arbeiten mit Bedrohungsergebnissen in Security Command Center
- Weitere Informationen finden Sie im Index der Bedrohungsergebnisse.
- Informationen zum Überprüfen von Ergebnissen über die Google Cloud Console
- Dienste, die Bedrohungsergebnisse generieren