Puoi utilizzare Google Cloud le best practice e le linee guida per la sicurezza dell'AI generativa per scoprire e implementare funzionalità di sicurezza per i tuoi carichi di lavoro di AI generativa e i servizi di supporto su Google Cloud.
Le best practice per la sicurezza sono una guida supplementare basata su Google alle pratiche normative e di sicurezza esistenti in settori come quello dei servizi finanziari. Le Google Cloud best practice e le linee guida si concentrano sui controlli di sicurezza dei workload di base e su considerazioni uniche specifiche per i workload di AI generativa.
Queste best practice per la sicurezza hanno lo scopo di aiutare i responsabili della sicurezza informatica (CISO), i professionisti della sicurezza e i responsabili di rischio e conformità ad adottare e implementare i carichi di lavoro in Google Cloud, concentrandosi su sicurezza e conformità. Allineiamo i nostri consigli ai requisiti dei framework National Institute of Standards and Technology (NIST) 800-53 e Cyber Risk Institute (CRI).
Queste best practice supportano anche il modello di destino condiviso, in cui ci impegniamo a collaborare con i settori per creare un'infrastruttura cloud più sicura e resiliente per vari workload. Il modello di destino condiviso include deployment, operazioni e trasferimento del rischio. Pertanto, questi consigli si concentrano sul deployment e sulle operazioni dei workload, in particolare in relazione alla conformità.
Siamo consapevoli che l'implementazione della conformità e della sicurezza non è un'operazione semplice. Per ulteriore assistenza, contatta Google Cloud Security.
Struttura per le best practice per la sicurezza
Le best practice per la sicurezza sono strutturate come controlli che puoi esaminare e implementare. I controlli sono i seguenti:
Ruoli IAM consigliati: suggerimenti per i ruoli IAM da assegnare ai gruppi di utenti della tua organizzazione.
Controlli comuni: queste best practice si applicano a tutti i workload di AI generativa in Google Cloud.
Controlli specifici per il servizio: queste best practice si applicano ai carichi di lavoro di AI generativa che utilizzano i seguenti servizi Google Cloud :
- Controlli di Vertex AI
- Controlli di Artifact Registry
- Controlli BigQuery
- Controlli di fatturazione Cloud
- Controlli di Cloud Build
- Controlli di Cloud DNS
- Controlli di Cloud Identity
- Controlli delle funzioni Cloud Run
- Controlli di Cloud Storage
- Controlli di Dataflow
- Controlli di Identity and Access Management
- Controlli del servizio Criteri dell'organizzazione
- Controlli Pub/Sub
- Controlli di Resource Manager
- Controlli di Secret Manager
- Controlli di Security Command Center
- Controlli di Virtual Private Cloud
Ogni raccomandazione è verificabile e garantisce il rispetto di una base di controlli di sicurezza.
Categorie di controllo
Le categorie di controllo sono obbligatorie, consigliate o facoltative. Le categorie aiutano a identificare le attività principali che ti consigliamo vivamente di svolgere, le attività che ti consigliamo vivamente di prendere in considerazione e le attività che potresti prendere in considerazione in base ai tuoi requisiti e obiettivi specifici.
La tabella seguente descrive queste categorie.
| Categoria | Descrizione |
|---|---|
Obbligatorio |
Implementa queste linee guida per il tuo ambiente Google Cloud . |
Consigliato |
Implementa queste linee guida in base a casi d'uso come il monitoraggio di dati sensibili all'interno dei carichi di lavoro di AI generativa se il tuo ambiente include questo tipo di dati. |
Facoltativo |
Prendi in considerazione linee guida aggiuntive in base al tuo caso d'uso e alla tua propensione al rischio. |
Architettura di esempio dell'AI generativa
Il seguente diagramma mostra i servizi Google Cloud presenti in una tipica architettura di AI generativa che utilizza Vertex AI.
Passaggi successivi
- Esamina i ruoli IAM consigliati.