Der KI-Schutz hilft Ihnen, den Sicherheitsstatus Ihrer KI-Arbeitslasten zu verwalten, indem er Bedrohungen erkennt und Ihnen hilft, Risiken für Ihr KI-Asset-Inventar zu minimieren. Dieses Dokument bietet einen allgemeinen Überblick über AI Protection, einschließlich der Vorteile und einiger wichtiger Konzepte. AI Protection ist bei Aktivierungen von Security Command Center auf Organisationsebene verfügbar.
Wenn Security Command Center für die Service-Stufen Premium und Enterprise auf Organisationsebene aktiviert ist, bietet AI Protection einen umfassenden Überblick über die KI-Sicherheit in Ihrer gesamten Google Cloud Umgebung. Das AI Protection-Dashboard in der Google Cloud -Konsole bietet eine einheitliche Reihe von Widgets und Funktionen, wobei Daten aus allen Projekten und Ressourcen innerhalb der Organisation zusammengefasst werden.
Funktionen von AI Protection
Der KI-Schutz hilft Ihnen, Bedrohungen und Risiken für Ihre KI-Systeme auf folgende Weise zu verwalten:
- Organisationsweiter KI-Asset-Inventar: Damit können Sie Ihre KI-Systeme und ‑Assets in allen Projekten ermitteln, bewerten und verwalten, einschließlich Modelle, Datasets, Endpunkte, Vertex AI, Cloud Storage und BigQuery.
- Integriertes Risiko- und Sicherheitslückenmanagement: Hilft Ihnen, KI-spezifische Sicherheitslücken, Fehlkonfigurationen, Bedrohungen und Risiken für Ihre KI-Assets im gesamten Organisationskontext zu identifizieren, zu analysieren und zu verwalten.
- Compliance-Unterstützung: Hilft Ihnen, die Einhaltung relevanter Sicherheitsstandards mithilfe der ermittelnden Kontrollen im AI Protection-Framework zu überprüfen.
- Transparenz bei der Datensicherheit: Die Lösung lässt sich in Dienste wie die Verwaltung des Datensicherheitsstatus einbinden, um Einblicke in die Vertraulichkeit, Herkunft und Risiken von Daten zu erhalten, die mit Ihren KI-Arbeitslasten verbunden sind.
- Einheitliches KI-Sicherheitsmanagement: Unterstützt Sie dabei, KI-Sicherheitsrichtlinien und Best Practices in Ihrer gesamten Organisation über ein einziges, zentrales Dashboard hinweg einheitlich zu überwachen und anzuwenden. Der KI-Schutz hilft Ihnen auch, potenzielle Bedrohungen, Sicherheitslücken und Fehlkonfigurationen zu erkennen und darauf zu reagieren.
- Unterstützung bei der Risikobewertung: Trägt dazu bei, die finanziellen, reputationsbezogenen und rechtlichen Risiken zu minimieren, die mit Sicherheitsverstößen und Nichteinhaltung von Vorschriften bei Ihren KI-Bereitstellungen verbunden sind.
Anwendungsfälle für AI Protection
AI Protection hilft Organisationen, ihre Sicherheit zu verbessern, indem Bedrohungen und Risiken im Zusammenhang mit KI‑Systemen und sensiblen Daten erkannt und minimiert werden. Die folgenden Anwendungsfälle sind Beispiele dafür, wie AI Protection in verschiedenen Organisationen eingesetzt werden kann:
Finanzdienstleister: Finanzdaten von Kunden
Ein großes Finanzdienstleistungsinstitut verwendet KI-Modelle, die sensible Finanzdaten verarbeiten.
- Herausforderung:Die Verarbeitung hochsensibler Finanzdaten mit KI-Modellen birgt mehrere Risiken, darunter das Risiko von Datenpannen, Datenexfiltration während des Trainings oder der Inferenz sowie Sicherheitslücken in der zugrunde liegenden KI-Infrastruktur.
- Anwendungsfall:AI Protection überwacht KI-Workflows kontinuierlich auf verdächtige Aktivitäten, erkennt unbefugten Datenzugriff und anomales Modellverhalten, klassifiziert sensible Daten und trägt dazu bei, die Einhaltung von Vorschriften wie PCI DSS und DSGVO zu verbessern.
Gesundheitsdienstleister: Datenschutz und Compliance
Ein großer Gesundheitsdienstleister verwaltet elektronische Gesundheitsakten und verwendet KI für Diagnosen und Behandlungsplanung. Dabei werden Protected Health Information (PHI) verarbeitet.
- Herausforderung:Die von KI-Modellen analysierten PHI unterliegen strengen Vorschriften wie HIPAA. Zu den Risiken gehören die versehentliche Offenlegung von vertraulichen Gesundheitsdaten durch Fehlkonfigurationen oder böswillige Angriffe, die auf KI-Systeme für Patientendaten abzielen.
- Anwendungsfall:AI Protection erkennt potenzielle HIPAA-Verstöße und benachrichtigt Sie darüber. Außerdem wird unbefugter PHI-Zugriff durch Modelle oder Nutzer erkannt, anfällige und potenziell falsch konfigurierte KI-Dienste werden gekennzeichnet und es wird auf Datenlecks geachtet.
Fertigungs- und Robotikunternehmen: proprietäres geistiges Eigentum
Ein Fertigungsunternehmen, das sich auf fortschrittliche Robotik und Automatisierung spezialisiert hat, setzt stark auf KI, um Produktionslinien und Robotersteuerung zu optimieren. Wichtiges geistiges Eigentum ist in den KI-Algorithmen und Fertigungsdaten enthalten.
- Herausforderung:Proprietäre KI-Algorithmen und sensible Betriebsdaten sind anfällig für Diebstahl durch Insider oder externe Angreifer, was möglicherweise zu Wettbewerbsnachteilen oder Betriebsunterbrechungen führt.
- Anwendungsfall:AI Protection überwacht KI-Modelle und Code-Repositories auf unbefugten Zugriff, erkennt Versuche, trainierte Modelle zu exfiltrieren, und ungewöhnliche Datenzugriffsmuster und kennzeichnet Sicherheitslücken in KI-Entwicklungsumgebungen, um den Diebstahl von geistigem Eigentum zu verhindern.
Event Threat Detection-Regeln für Vertex AI-Assets
Die folgenden Event Threat Detection-Regeln führen Erkennungen für Vertex AI-Assets aus:
- Persistenz: Neue KI-API-Methode
- Persistenz: Neue geografische Region für KI-Dienst
- Berechtigungseskalierung: Anomale Identitätsübernahme des Dienstkontos bei KI-Administratoraktivität
- Privilege Escalation: Anomalous Service Account Impersonator for AI Data Access (Anomale Identitätsübernahme des Dienstkontos bei KI-Datenzugriff)
- Ausweitung von Berechtigungen: Anomale mehrstufige Dienstkontodelegierung bei KI-Administratoraktivität
- Rechteausweitung: Anomale mehrstufige Dienstkontodelegierung bei KI-Datenzugriff
- Privilege Escalation: Anomalous Service Account Impersonator for AI Admin Activity
- Anfänglicher Zugriff: Keine Dienstkontoaktivität im KI-Dienst
Weitere Informationen zu Event Threat Detection finden Sie unter Event Threat Detection – Übersicht.
Framework für KI-Schutz
AI Protection verwendet ein Framework, das spezifische Cloud-Steuerelemente umfasst, die automatisch im Erkennungsmodus bereitgestellt werden. Im Erkennungsmodus wird die Cloud-Kontrolle auf die definierten Ressourcen angewendet, um sie zu überwachen. Alle Verstöße werden erkannt und es werden Benachrichtigungen generiert. Sie verwenden Frameworks und Cloud-Kontrollen, um Ihre AI Protection-Anforderungen zu definieren und auf Ihre Google Cloud -Umgebung anzuwenden. AI Protection umfasst das Standard-Framework, in dem empfohlene grundlegende Kontrollen für AI Protection definiert sind. Wenn Sie AI Protection aktivieren, wird das Standard-Framework automatisch im Erkennungsmodus auf die Organisation Google Cloud angewendet.
Bei Bedarf können Sie Kopien des Frameworks erstellen, um benutzerdefinierte KI-Schutz-Frameworks zu erstellen. Sie können die Cloud-Kontrollen Ihren benutzerdefinierten Frameworks hinzufügen und die benutzerdefinierten Frameworks auf die Organisation, Ordner oder Projekte anwenden. Sie können beispielsweise benutzerdefinierte Frameworks erstellen, mit denen bestimmte Gerichtsbarkeitskontrollen auf bestimmte Ordner angewendet werden. So können Sie dafür sorgen, dass Daten in diesen Ordnern in einer bestimmten geografischen Region verbleiben.
Cloud-Kontrollen im standardmäßigen AI Protection-Framework
Weitere Informationen zu den Cloud-Steuerelementen, die vom AI Protection-Framework verwendet werden, finden Sie unter Google Recommended AI Essentials – Vertex AI.
Unterstützte Funktionsbereiche für AI Protection
In diesem Abschnitt werden die Funktionsbereiche definiert, in denen AI Protection für mehr Sicherheit sorgen kann.
- KI-Arbeitslasten: KI-Anwendungen reichen von internen Tools zur Steigerung der Mitarbeiterproduktivität bis hin zu kundenorientierten Lösungen zur Verbesserung der Nutzerfreundlichkeit und zur Steigerung des Umsatzes. Beispiele hierfür sind KI-Agents, virtuelle Assistenten, konversationelle KI-Chatbots und personalisierte Empfehlungen.
- KI-Agenten: KI-Agenten sind KI-Systeme, die ihre Umgebung wahrnehmen, Entscheidungen treffen und Maßnahmen ergreifen können, um bestimmte Ziele zu erreichen.
- KI-Modelle: KI-Modelle werden in Foundation Models, optimierte KI-Modelle, Standard-KI-Modelle auf Grundlage selbst erhobener Daten und benutzerdefinierte KI-Modelle unterteilt. Beispiele sind Gemini, Llama, Übersetzungsmodelle und benutzerdefinierte Modelle für bestimmte Aufgaben.
- KI-Assets: KI-Assets tragen zu Pipelines für Machine-Learning-Vorgänge bei und werden von KI-Arbeitslasten verwendet. Zu den Arten von KI-Assets gehören die folgenden:
- Deklarative KI-Assets: Tools zur Verwaltung des KI-Lebenszyklus wie Vertex AI verfolgen diese Assets.
- Abgeleitete KI-Assets: Allzweck-Assets wie Compute- und Speicher-Assets, die zum Verarbeiten von KI-Daten oder ‑Arbeitslasten verwendet werden.
- Model-as-a-Service (nur API): Assets mit programmatischen Aufrufen von KI-Modellen von Erstanbietern oder Drittanbietern.
AI Security-Dashboard verwenden
Im Dashboard für KI-Sicherheit können Sie das Inventar der KI-Assets Ihrer Organisation visualisieren und vorgeschlagene Maßnahmen zur Risikominderung und zur Abwehr von Bedrohungen prüfen.
Auf das AI Security-Dashboard zugreifen
Rufen Sie in der Google Cloud Console die Seite Risikoübersicht > AI Security auf, um auf das AI Security-Dashboard zuzugreifen:
Premium
Unternehmen
Weitere Informationen finden Sie im Dashboard für KI-Sicherheit.
Risikomanagement für KI-Systeme
Dieser Abschnitt enthält Informationen zu potenziellen Risiken, die mit KI-Systemen verbunden sind. Sie können sich die größten Risiken in Ihrem KI-Inventar ansehen.
Wenn Sie auf ein Problem klicken, wird ein Detailbereich mit einer Visualisierung des Problems geöffnet.
KI-Bedrohungen ansehen
Dieser Abschnitt enthält Informationen zu Bedrohungen im Zusammenhang mit KI-Systemen. Sie können sich die fünf letzten Bedrohungen ansehen, die mit Ihren KI-Ressourcen in Verbindung stehen.
Auf dieser Seite haben Sie folgende Möglichkeiten:
- Klicken Sie auf Alle ansehen, um Bedrohungen aufzurufen, die mit Ihren KI-Ressourcen verknüpft sind.
- Klicken Sie auf eine beliebige Bedrohung, um weitere Details dazu aufzurufen.
KI-Inventar visualisieren
Im Dashboard finden Sie eine Visualisierung Ihres KI-Inventars mit einer Zusammenfassung der Projekte, die generative KI umfassen, der aktiv verwendeten eigenen Modelle und Modelle von Drittanbietern sowie der Datasets, die zum Trainieren der Modelle von Drittanbietern verwendet werden.
Auf dieser Seite haben Sie folgende Möglichkeiten:
- Klicken Sie auf einen der Knoten in der Visualisierung, um die Seite mit den Inventardetails aufzurufen.
- Wenn Sie eine detaillierte Liste der einzelnen Assets (z. B. Basismodelle und benutzerdefinierte Modelle) aufrufen möchten, klicken Sie auf die Kurzinfo.
- Klicken Sie auf das Modell, um eine detaillierte Ansicht zu öffnen. In dieser Ansicht werden Details wie die Endpunkte, an denen das Modell gehostet wird, und das Dataset angezeigt, das zum Trainieren des Modells verwendet wurde. Wenn Sensitive Data Protection aktiviert ist, wird in der Dataset-Ansicht auch angezeigt, ob das Dataset sensible Daten enthält.
Zusammenfassung der Ergebnisse des AI Framework prüfen
In diesem Abschnitt erfahren Sie, wie Sie Ergebnisse aus dem KI-Framework und den Datensicherheitsrichtlinien bewerten und verwalten können. Er enthält Folgendes:
- Ergebnisse: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse angezeigt, die von KI-Sicherheitsrichtlinien und Datensicherheitsrichtlinien generiert wurden. Klicken Sie auf Alle Ergebnisse ansehen oder auf die Anzahl neben jeder Ergebniskategorie, um Details zum Ergebnis aufzurufen. Klicken Sie auf ein Ergebnis, um zusätzliche Informationen dazu aufzurufen.
- Sensible Daten in Vertex AI-Datasets: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse basierend auf sensiblen Daten in Datasets angezeigt, die von Sensitive Data Protection gemeldet wurden. Weitere Informationen finden Sie unter Einführung in Vertex AI.
Model Armor-Ergebnisse prüfen
Ein Diagramm zeigt die Gesamtzahl der von Model Armor gescannten Prompts oder Antworten und die Anzahl der von Model Armor erkannten Probleme. Außerdem werden zusammenfassende Statistiken für verschiedene Arten von erkannten Problemen angezeigt, z. B. Prompt-Injection, Jailbreak-Erkennung und Erkennung vertraulicher Daten.
Diese Informationen werden anhand der Messwerte ausgefüllt, die Model Armor in Cloud Monitoring veröffentlicht. Weitere Informationen finden Sie unter Model Armor – Übersicht.
Nächste Schritte
- Informationen zum Konfigurieren von AI Protection
- Um das Risiko zu bewerten, rufen Sie die Dashboarddaten auf.