AI Protection – Übersicht

Der KI-Schutz hilft Ihnen, den Sicherheitsstatus Ihrer KI-Arbeitslasten zu verwalten, indem er Bedrohungen erkennt und Ihnen hilft, Risiken für Ihr KI-Asset-Inventar zu minimieren. Dieses Dokument bietet einen allgemeinen Überblick über AI Protection, einschließlich der Vorteile und einiger wichtiger Konzepte.

Funktionen von AI Protection

AI Protection bietet verschiedene Funktionen, mit denen Sie Bedrohungen und Risiken für Ihre KI-Systeme verwalten können, darunter:

  • KI-Inventar bewerten: Bewerten und verstehen Sie Ihre KI-Systeme und KI-Assets, einschließlich Ihrer Modelle und Datasets.
  • Risiken und Compliance verwalten: Risiken für Ihre KI-Assets proaktiv verwalten und überprüfen, ob Ihre KI-Bereitstellungen den relevanten Sicherheitsstandards entsprechen.
  • Rechtliche und finanzielle Risiken minimieren: Reduzieren Sie die finanziellen, reputationsbezogenen und rechtlichen Risiken, die mit Sicherheitsverstößen und Nichteinhaltung von Vorschriften verbunden sind.
  • Bedrohungen erkennen und verwalten: Erkennen Sie potenzielle Bedrohungen für Ihre KI-Systeme und ‑Assets rechtzeitig und reagieren Sie darauf.
  • Ein Dashboard aufrufen: Sie können alle KI-bezogenen Risiken und Bedrohungen über ein zentrales Dashboard verwalten.

Anwendungsfälle für AI Protection

AI Protection hilft Organisationen, ihre Sicherheit zu verbessern, indem Bedrohungen und Risiken im Zusammenhang mit KI‑Systemen und sensiblen Daten erkannt und minimiert werden. Die folgenden Anwendungsfälle sind Beispiele dafür, wie AI Protection in verschiedenen Organisationen eingesetzt werden kann:

  • Finanzdienstleister: Finanzdaten von Kunden

    Ein großes Finanzdienstleistungsunternehmen verwendet KI-Modelle, die sensible Finanzdaten verarbeiten.

    • Herausforderung:Die Verarbeitung hochsensibler Finanzdaten mit KI-Modellen birgt mehrere Risiken, darunter das Risiko von Datenpannen, Datenexfiltration während des Trainings oder der Inferenz sowie Sicherheitslücken in der zugrunde liegenden KI-Infrastruktur.
    • Anwendungsfall:AI Protection überwacht KI-Workflows kontinuierlich auf verdächtige Aktivitäten, erkennt unbefugten Datenzugriff und anomales Modellverhalten, klassifiziert sensible Daten und trägt dazu bei, die Einhaltung von Vorschriften wie PCI DSS und DSGVO zu verbessern.
  • Gesundheitsdienstleister: Datenschutz und Compliance

    Ein großer Gesundheitsdienstleister verwaltet elektronische Gesundheitsakten und verwendet KI für Diagnosen und Behandlungsplanung. Dabei werden Protected Health Information (PHI) verarbeitet.

    • Herausforderung:PHI, die von KI-Modellen analysiert werden, unterliegen strengen Vorschriften wie HIPAA. Zu den Risiken gehören die versehentliche Offenlegung von vertraulichen Gesundheitsdaten durch Fehlkonfigurationen oder böswillige Angriffe, die auf KI-Systeme für Patientendaten abzielen.
    • Anwendungsfall:AI Protection erkennt potenzielle HIPAA-Verstöße und warnt davor, erkennt unbefugten PHI-Zugriff durch Modelle oder Nutzer, kennzeichnet anfällige und potenziell falsch konfigurierte KI-Dienste und überwacht auf Datenlecks.
  • Fertigungs- und Robotikunternehmen: proprietäres geistiges Eigentum

    Ein Fertigungsunternehmen, das sich auf fortschrittliche Robotik und Automatisierung spezialisiert hat, setzt stark auf KI, um Produktionslinien und Robotersteuerung zu optimieren. Wichtiges geistiges Eigentum ist in den KI-Algorithmen und Fertigungsdaten enthalten.

    • Herausforderung:Proprietäre KI-Algorithmen und sensible Betriebsdaten sind anfällig für Diebstahl durch Insider oder externe Angreifer, was möglicherweise zu Wettbewerbsnachteilen oder Betriebsunterbrechungen führt.
    • Anwendungsfall:AI Protection überwacht KI-Modelle und Code-Repositories auf unbefugten Zugriff, erkennt Versuche, trainierte Modelle zu exfiltrieren, und ungewöhnliche Datenzugriffsmuster und kennzeichnet Sicherheitslücken in KI-Entwicklungsumgebungen, um IP-Diebstahl zu verhindern.

Event Threat Detection-Regeln für Vertex AI-Assets

Die folgenden Event Threat Detection-Regeln führen Erkennungen für Vertex AI-Assets aus:

  • Persistenz: Neue KI-API-Methode
  • Persistenz: Neue geografische Region für KI-Dienst
  • Berechtigungseskalierung: Anomale Identitätsübernahme des Dienstkontos bei KI-Administratoraktivität
  • Ausweitung von Berechtigungen: Anomale Identitätsübernahme des Dienstkontos bei KI-Datenzugriff
  • Ausweitung von Berechtigungen: Anomale mehrstufige Dienstkontodelegierung bei KI-Administratoraktivität
  • Rechteausweitung: Anomale mehrstufige Dienstkontodelegierung bei KI-Datenzugriff
  • Privilege Escalation: Anomalous Service Account Impersonator for AI Admin Activity
  • Anfänglicher Zugriff: Keine Dienstkontoaktivität im KI-Dienst

Weitere Informationen zu Event Threat Detection finden Sie unter Event Threat Detection – Übersicht.

Framework für KI-Schutz

AI Protection besteht aus einem Framework mit spezifischen Cloud-Steuerelementen, die automatisch im Erkennungsmodus bereitgestellt werden. Im Erkennungsmodus wird die Cloud-Kontrolle auf die definierten Ressourcen angewendet, um sie zu überwachen. Alle Verstöße werden erkannt und es werden Benachrichtigungen generiert. Sie verwenden Frameworks und Cloud-Kontrollen, um Ihre AI Protection-Anforderungen zu definieren und auf Ihre Google Cloud -Umgebung anzuwenden. AI Protection umfasst das Standard-Framework, in dem empfohlene grundlegende Kontrollen für AI Protection definiert sind. Wenn Sie AI Protection aktivieren, wird das Standard-Framework automatisch im Erkennungsmodus auf die Organisation Google Cloud angewendet.

Bei Bedarf können Sie Kopien des Frameworks erstellen, um benutzerdefinierte KI-Schutz-Frameworks zu erstellen. Sie können die Cloud-Kontrollen Ihren benutzerdefinierten Frameworks hinzufügen und die benutzerdefinierten Frameworks auf die Organisation, Ordner oder Projekte anwenden. Sie können beispielsweise benutzerdefinierte Frameworks erstellen, mit denen bestimmte Gerichtsbarkeitskontrollen auf bestimmte Ordner angewendet werden. So können Sie dafür sorgen, dass Daten in diesen Ordnern in einer bestimmten geografischen Region verbleiben.

Cloud-Kontrollen im standardmäßigen AI Protection-Framework

Die folgenden Cloud-Kontrollen sind Teil des standardmäßigen AI Protection-Frameworks.

Name der Cloud-Kontrolle Beschreibung

Standard-VPC-Netzwerk für Vertex AI Workbench-Instanzen blockieren

Erstellen Sie keine Workbench-Instanzen im VPC-Standardnetzwerk, um die Verwendung der übermäßig permissiven Standardfirewallregeln zu verhindern.

Herunterladen von Dateien in der JupyterLab-Konsole blockieren

Lassen Sie das Herunterladen von Dateien aus der JupyterLab-Konsole in Workbench-Instanzen nicht zu, um das Risiko von Daten-Exfiltration zu verringern und die Verbreitung von Malware zu verhindern.

Internetzugriff für Vertex AI-Laufzeitvorlagen blockieren

Erlauben Sie keinen Internetzugriff in Colab Enterprise-Laufzeitvorlagen, um die externe Angriffsfläche zu verringern und potenzielle Daten-Exfiltration zu verhindern.

Öffentliche IP-Adresse für Vertex AI Workbench-Instanzen blockieren

Lassen Sie keine externen IP-Adressen für Workbench-Instanzen zu, um die Gefährdung durch das Internet zu verringern und das Risiko eines unbefugten Zugriffs zu minimieren.

Root-Zugriff auf Vertex AI Workbench-Instanzen blockieren

Erlauben Sie keinen Root-Zugriff auf Workbench-Instanzen, um unbefugte Änderungen an kritischen Systemdateien oder die Installation von schädlicher Software zu verhindern.

Automatische Upgrades für Vertex AI Workbench-Instanzen aktivieren

Aktivieren Sie automatische Upgrades für Workbench-Instanzen, um Zugriff auf die neuesten Funktionen, Framework-Updates und Sicherheitspatches zu erhalten.

CMEK für benutzerdefinierte Vertex AI-Jobs aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für benutzerdefinierte Vertex AI-Trainingsjobs, um mehr Kontrolle über die Verschlüsselung von Job-Ein- und ‑Ausgaben zu erhalten.

CMEK für Vertex AI-Datasets aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Datasets, um mehr Kontrolle über die Datenverschlüsselung und die Schlüsselverwaltung zu erhalten.

CMEK für Vertex AI-Endpunkte aktivieren

Wenn Sie vom Kunden verwaltete Verschlüsselungsschlüssel (CMEK) für Vertex AI-Endpunkte verwenden, haben Sie mehr Kontrolle über die Verschlüsselung bereitgestellter Modelle und den Datenzugriff.

CMEK für Vertex AI Feature Store aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI Feature Store, um mehr Kontrolle über die Datenverschlüsselung und den Zugriff zu erhalten.

CMEK für Vertex AI-Hyperparameter-Abstimmungsjobs aktivieren

Sie können für Hyperparameter-Abstimmungsjobs vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) festlegen, um mehr Kontrolle über die Verschlüsselung von Modelltrainingsdaten und Jobkonfigurationen zu erhalten.

CMEK für Vertex AI-Metadatenspeicher aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Metadatenspeicher, um mehr Kontrolle über die Verschlüsselung von Metadaten und den Zugriff zu erhalten.

CMEK für Vertex AI-Modelle aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Modelle, um mehr Kontrolle über die Datenverschlüsselung und die Schlüsselverwaltung zu erhalten.

CMEK für Vertex AI Notebook-Laufzeitvorlagen aktivieren

Sie können die Verwendung von vom Kunden verwalteten Verschlüsselungsschlüsseln (Customer-Managed Encryption Keys, CMEK) für Colab Enterprise-Laufzeitvorlagen erzwingen, um Laufzeitumgebungen und zugehörige Daten zu schützen.

CMEK für Vertex AI TensorBoard aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI TensorBoard, um mehr Kontrolle über die Verschlüsselung von Testdaten und Modellvisualisierungen zu erhalten.

CMEK für Vertex AI-Trainingspipelines aktivieren

Verwenden Sie vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI-Trainingspipelines, um mehr Kontrolle über die Verschlüsselung von Trainingsdaten und resultierenden Artefakten zu erhalten.

CMEK für Vertex AI Workbench-Instanzen aktivieren

Sie können vom Kunden verwaltete Verschlüsselungsschlüssel (Customer-Managed Encryption Keys, CMEK) für Vertex AI Workbench-Instanzen verwenden, um mehr Kontrolle über die Datenverschlüsselung zu erhalten.

Funktion „In den Papierkorb verschieben“ für Vertex AI Workbench-Instanzen aktivieren

Aktivieren Sie die Metadatenfunktion „In den Papierkorb verschieben“ für Workbench-Instanzen, um ein wichtiges Sicherheitsnetz für die Wiederherstellung zu schaffen und versehentlichen Datenverlust zu verhindern.

Leerlauf-Shutdown für Vertex AI-Laufzeitvorlagen aktivieren

Aktivieren Sie das automatische Herunterfahren im Leerlauf in Colab Enterprise-Laufzeitvorlagen, um Cloud-Kosten zu optimieren, das Ressourcenmanagement zu verbessern und die Sicherheit zu erhöhen.

Integritätsmonitoring für Vertex AI Workbench-Instanzen aktivieren

Aktivieren Sie die Integritätsüberwachung für Workbench-Instanzen, um die Integrität beim Booten Ihrer VMs kontinuierlich anhand einer vertrauenswürdigen Baseline zu prüfen.

Secure Boot für Vertex AI-Laufzeitvorlagen aktivieren

Aktivieren Sie Secure Boot in Colab Enterprise-Laufzeitvorlagen, um die Ausführung nicht autorisierten Codes zu verhindern und die Integrität des Betriebssystems zu schützen.

Secure Boot für Vertex AI Workbench-Instanzen aktivieren

Aktivieren Sie Secure Boot für Workbench-Instanzen, um zu verhindern, dass während des Startvorgangs nicht autorisierte oder schädliche Software ausgeführt wird.

vTPM auf Vertex AI Workbench-Instanzen aktivieren

Aktivieren Sie das Virtual Trusted Platform Module (vTPM) auf Workbench-Instanzen, um den Startvorgang zu schützen und mehr Kontrolle über die Verschlüsselung zu erhalten.

Verwendung des Standarddienstkontos für Vertex AI Workbench-Instanzen einschränken

Beschränken Sie die Verwendung des Standarddienstkontos mit den sehr großzügigen Berechtigungen für Workbench-Instanzen, um das Risiko eines unbefugten Zugriffs auf Google Cloud-Dienste zu verringern.

Unterstützte Funktionsbereiche für AI Protection

In diesem Abschnitt werden die Funktionsbereiche definiert, in denen AI Protection für mehr Sicherheit sorgen kann.

  • KI-Arbeitslasten: KI-Anwendungen reichen von internen Tools zur Steigerung der Mitarbeiterproduktivität bis hin zu kundenorientierten Lösungen zur Verbesserung der Nutzerfreundlichkeit und zur Steigerung des Umsatzes. Beispiele hierfür sind KI-Agents, virtuelle Assistenten, konversationelle KI-Chatbots und personalisierte Empfehlungen.
  • KI-Modelle: KI-Modelle werden in grundlegende KI-Modelle, optimierte KI-Modelle, Standard-KI-Modelle auf Grundlage selbst erhobener Daten und benutzerdefinierte KI-Modelle unterteilt. Beispiele sind Gemini, Llama, Übersetzungsmodelle und benutzerdefinierte Modelle für bestimmte Aufgaben.
  • KI-Assets: KI-Assets tragen zu Pipelines für Machine-Learning-Vorgänge bei und werden von KI-Arbeitslasten verwendet. Zu den Arten von KI-Assets gehören die folgenden:
    • Deklarative KI-Assets: Tools zur Verwaltung des KI-Lebenszyklus wie Vertex AI verfolgen diese Assets.
    • Abgeleitete KI-Assets: Allzweck-Assets wie Compute- und Speicher-Assets, die zum Verarbeiten von KI-Daten oder ‑Arbeitslasten verwendet werden.
    • Model-as-a-Service (nur API): Assets mit programmatischen Aufrufen von eigenen oder KI-Modellen von Drittanbietern.

AI Security-Dashboard verwenden

Das AI Security-Dashboard bietet einen umfassenden Überblick über das KI-Asset-Inventar Ihrer Organisation und schlägt potenzielle Maßnahmen zur Verbesserung des Risiko- und Bedrohungsmanagements vor.

Auf das AI Security-Dashboard zugreifen

Rufen Sie in der Google Cloud Console Risikoübersicht > KI-Sicherheit auf, um auf das Dashboard für KI-Sicherheit zuzugreifen.

Weitere Informationen finden Sie unter Dashboard für KI-Sicherheit.

Risikomanagement für KI-Systeme

Dieser Abschnitt enthält Informationen zu potenziellen Risiken, die mit KI-Systemen verbunden sind. Sie können sich die größten Risiken in Ihrem KI-Inventar ansehen.

Wenn Sie auf ein Problem klicken, wird ein Detailbereich mit einer Visualisierung des Problems geöffnet.

KI-Bedrohungen ansehen

Dieser Abschnitt enthält Informationen zu Bedrohungen im Zusammenhang mit KI-Systemen. Sie können sich die fünf letzten Bedrohungen ansehen, die mit Ihren KI-Ressourcen in Verbindung stehen.

Auf dieser Seite haben Sie folgende Möglichkeiten:

  • Klicken Sie auf Alle ansehen, um Bedrohungen aufzurufen, die mit Ihren KI-Ressourcen verknüpft sind.
  • Klicken Sie auf eine beliebige Bedrohung, um weitere Details dazu aufzurufen.

KI-Inventar visualisieren

Im Dashboard finden Sie eine Visualisierung Ihres KI-Inventars mit einer Zusammenfassung der Projekte, die generative KI umfassen, der aktiv verwendeten eigenen Modelle und Modelle von Drittanbietern sowie der Datasets, die zum Trainieren der Modelle von Drittanbietern verwendet werden.

Auf dieser Seite haben Sie folgende Möglichkeiten:

  • Klicken Sie auf einen der Knoten in der Visualisierung, um die Seite mit den Inventardetails aufzurufen.
  • Wenn Sie eine detaillierte Liste der einzelnen Assets (z. B. Basismodelle und benutzerdefinierte Modelle) aufrufen möchten, klicken Sie auf die Kurzinfo.
  • Klicken Sie auf das Modell, um eine detaillierte Ansicht zu öffnen. In dieser Ansicht werden Details wie die Endpunkte, an denen das Modell gehostet wird, und das Dataset angezeigt, das zum Trainieren des Modells verwendet wurde. Wenn der Schutz sensibler Daten aktiviert ist, wird in der Dataset-Ansicht auch angezeigt, ob das Dataset sensible Daten enthält.

Zusammenfassung der Ergebnisse des AI Framework prüfen

In diesem Abschnitt erfahren Sie, wie Sie die Ergebnisse, die von KI-Framework- und Datensicherheitsrichtlinien generiert werden, bewerten und verwalten. Dieser Abschnitt umfasst Folgendes:

  • Ergebnisse: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse angezeigt, die von KI-Sicherheitsrichtlinien und Datensicherheitsrichtlinien generiert wurden. Klicken Sie auf Alle Ergebnisse ansehen oder auf die Anzahl neben jeder Ergebniskategorie, um die Detailseite für Ergebnisse aufzurufen. Klicken Sie auf ein Ergebnis, um zusätzliche Informationen dazu aufzurufen.
  • Sensible Daten in Vertex AI-Datasets: In diesem Abschnitt wird eine Zusammenfassung der Ergebnisse basierend auf sensiblen Daten in Datasets angezeigt, die von Sensitive Data Protection gemeldet wurden. Weitere Informationen finden Sie unter Einführung in Vertex AI.

Model Armor-Ergebnisse prüfen

Ein Diagramm zeigt die Gesamtzahl der Prompts oder Antworten, die von Model Armor gescannt wurden, sowie die Anzahl der Probleme, die von Model Armor erkannt wurden. Außerdem werden zusammenfassende Statistiken für verschiedene Arten von erkannten Problemen angezeigt, z. B. Prompt-Injection, Jailbreak-Erkennung und Erkennung vertraulicher Daten.

Diese Informationen werden anhand der Messwerte ausgefüllt, die Model Armor in Cloud Monitoring veröffentlicht. Weitere Informationen finden Sie unter Model Armor – Übersicht.

Nächste Schritte