Google Cloud-Best Practices und ‑Richtlinien für generative KI-Arbeitslasten

AufGoogle Cloudfinden Sie Google Cloud Best Practices und Richtlinien für generative KI, mit denen Sie Sicherheitsfunktionen für Ihre Workloads auf Basis von generativer KI und die zugehörigen Dienste ermitteln und implementieren können.

Die Best Practices für die Sicherheit sind ein von Google entwickelter ergänzender Leitfaden zu bestehenden behördlichen und Sicherheitsverfahren in Branchen wie dem Finanzdienstleistungssektor. Die Google Cloud Best Practices und Richtlinien konzentrieren sich auf grundlegende Sicherheitskontrollen für Arbeitslasten und auf besondere Aspekte, die speziell für generative KI-Arbeitslasten gelten.

Diese Best Practices für die Sicherheit sollen Chief Information Security Officers (CISOs), Sicherheitsexperten sowie Risiko- und Compliance-Beauftragten helfen, Arbeitslasten in Google Cloudeinzuführen und bereitzustellen, wobei der Schwerpunkt auf Sicherheit und Compliance liegt. Unsere Empfehlungen entsprechen den Anforderungen des National Institute of Standards and Technology (NIST) 800-53 und des Cyber Risk Institute (CRI).

Diese Best Practices unterstützen auch das Fate-Sharing-Modell, bei dem wir mit Branchen zusammenarbeiten, um eine sicherere und robuste Cloud-Infrastruktur für verschiedene Arbeitslasten zu schaffen. Das Fate-Sharing-Modell umfasst Bereitstellung, Betrieb und Risikotransfer. Daher konzentrieren sich diese Empfehlungen auf die Bereitstellung und den Betrieb von Arbeitslasten, insbesondere in Bezug auf die Compliance.

Wir wissen, dass die Implementierung von Compliance und Sicherheit keine einfache Aufgabe ist. Wenn Sie weitere Hilfe benötigen, wenden Sie sich an Google CloudSecurity.

Struktur für Best Practices für die Sicherheit

Die Best Practices für die Sicherheit sind als Kontrollen strukturiert, die Sie prüfen und implementieren können. Jede Einstellung ist für eine andere Ebene des KI-Stacks konzipiert. Folgende Stufen sind verfügbar:

  • Sichere Unternehmensgrundlage:Kernschicht für Authentifizierung, Zugriffsverwaltung, Organisation, Vernetzung, Schlüsselverwaltung, Geheimnisverwaltung, Logging, Monitoring, Benachrichtigungen, Sicherheitsanalysen und Agent-basierte Vorgänge.
  • KI-Infrastruktur:Ebene für Container, Computing und TPUs.
  • Forschung und Modelle:Ebene für die Modellentwicklung und den aktiven Schutz von Modellen.
  • Datenverwaltung und Kontext:Ebene für Data Warehouses, Speicher, Datenbanken und die Verwaltung sensibler Daten.
  • Tools und Inferenzplattform:Ebene für die Agent-Plattform, einschließlich Modell-Gärten, Modell-Buildern und Agent-Buildern.
  • Agents und Anwendungen:Ebene für Gemini Enterprise, Google Workspace, KI-Anwendungen und andere Softwarefunktionen.

Das folgende Diagramm zeigt, wie diese Ebenen aufeinander aufbauen.

Generative KI-Stack.

Die Steuerelemente sind so strukturiert:

Jede Empfehlung ist prüfbar und sorgt dafür, dass eine Mindestanzahl von Sicherheitskontrollen erfüllt wird.

Implementierungsebenen steuern

Die Implementierungsebenen für Kontrollen sind Erforderlich, Empfohlen oder Optional. Die Stufen helfen Ihnen, wichtige Aktivitäten zu identifizieren, die wir Ihnen dringend empfehlen, Aktivitäten, die Sie in Erwägung ziehen sollten, und Aktivitäten, die Sie je nach Ihren spezifischen Anforderungen und Zielen in Betracht ziehen könnten.

In der folgenden Tabelle werden diese Ebenen beschrieben.

Implementierungsebene Beschreibung

Erforderlich

Implementieren Sie diese Richtlinien für Ihre Google Cloud -Umgebung.

Empfohlen

Implementieren Sie diese Richtlinien basierend auf Anwendungsfällen wie der Überwachung sensibler Daten in den generativen KI-Arbeitslasten, wenn Ihre Umgebung diese Art von Daten enthält.

Optional

Berücksichtigen Sie zusätzliche Richtlinien, die auf Ihrem Anwendungsfall und Ihrer Risikobereitschaft basieren.

Nächste Schritte