AI Protection ti aiuta a gestire la postura di sicurezza dei tuoi workload AI rilevando le minacce e aiutandoti a mitigare i rischi per il tuo inventario degli asset AI. Questo documento fornisce una panoramica generale di AI Protection, inclusi i vantaggi e diversi concetti chiave. AI Protection è disponibile con le attivazioni a livello di organizzazione di Security Command Center.
Per i livelli di servizio Premium ed Enterprise, quando Security Command Center viene attivato a livello di organizzazione, AI Protection contribuisce a fornire una visione completa della sicurezza dell'AI in tutto l'ambiente Google Cloud . La dashboard AI Protection nella console Google Cloud mostra un insieme coerente di widget e funzionalità, con dati aggregati da tutti i progetti e le risorse all'interno dell'organizzazione.
Funzionalità di AI Protection
AI Protection ti aiuta a gestire minacce e rischi per i tuoi sistemi di AI nei seguenti modi:
- Inventario degli asset AI a livello di organizzazione: ti aiuta a scoprire, valutare e gestire i tuoi sistemi e asset AI in tutti i progetti, inclusi modelli, set di dati, endpoint, Vertex AI, Cloud Storage e BigQuery.
- Gestione integrata di rischi e vulnerabilità: ti aiuta a identificare, analizzare e gestire vulnerabilità, configurazioni errate, minacce e rischi specifici per l'AI per i tuoi asset AI con il contesto organizzativo completo.
- Supporto della conformità: ti aiuta a verificare il rispetto degli standard di sicurezza pertinenti utilizzando i controlli di rilevamento nel framework AI Protection.
- Visibilità della sicurezza dei dati: si integra con servizi come Data Security Posture Management per fornire approfondimenti su sensibilità, derivazione e rischi associati ai tuoi carichi di lavoro AI.
- Gestione unificata della sicurezza dell'AI: consente di monitorare e applicare le best practice e le norme di sicurezza dell'AI in modo coerente in tutta l'organizzazione da un'unica dashboard centralizzata. Protezione AI ti aiuta anche a rilevare e rispondere a potenziali minacce, vulnerabilità e configurazioni errate.
- Supporto per la consapevolezza dei rischi: contribuisce a ridurre al minimo i rischi finanziari, reputazionali e legali associati a violazioni della sicurezza e mancato rispetto delle normative nei tuoi deployment di AI.
Casi d'uso di AI Protection
AI Protection aiuta le organizzazioni a migliorare la propria sicurezza identificando e mitigando minacce e rischi correlati a sistemi di AI e dati sensibili. I seguenti casi d'uso sono esempi di come AI Protection può essere utilizzata in diverse organizzazioni:
Istituto di servizi finanziari: dati finanziari del cliente
Un grande istituto di servizi finanziari utilizza modelli di AI che elaborano dati finanziari sensibili.
- Sfida: l'elaborazione di dati finanziari altamente sensibili con modelli di AI comporta diversi rischi, tra cui il rischio di violazioni dei dati, l'esfiltrazione dei dati durante l'addestramento o l'inferenza e le vulnerabilità nell'infrastruttura di AI sottostante.
- Caso d'uso: AI Protection monitora continuamente i flussi di lavoro dell'AI per rilevare attività sospette, si impegna a rilevare l'accesso non autorizzato ai dati e il comportamento anomalo dei modelli, esegue la classificazione dei dati sensibili e contribuisce a migliorare la conformità a normative come PCI DSS e GDPR.
Fornitore di servizi sanitari: privacy e conformità dei pazienti
Un importante fornitore di servizi sanitari gestisce cartelle cliniche elettroniche e utilizza l'AI per la pianificazione di diagnosi e trattamenti, trattando dati sanitari protetti (PHI).
- Sfida: i dati PHI analizzati dai modelli AI sono soggetti a normative rigorose come l'HIPAA. I rischi includono l'esposizione accidentale di PHI tramite configurazioni errate o attacchi dannosi che prendono di mira i sistemi di AI per i dati dei pazienti.
- Caso d'uso:AI Protection identifica e segnala potenziali violazioni dell'HIPAA, rileva l'accesso non autorizzato PHI protetti da parte di modelli o utenti, segnala servizi di AI vulnerabili e potenzialmente configurati in modo errato e monitora la perdita di dati.
Azienda di produzione e robotica: proprietà intellettuale proprietaria
Un'azienda manifatturiera specializzata in robotica e automazione avanzate si affida molto all'AI per ottimizzare le linee di produzione e il controllo robotico, con proprietà intellettuale (PI) vitale incorporata nei suoi algoritmi di AI e nei dati di produzione.
- Sfida: gli algoritmi di AI proprietari e i dati operativi sensibili sono vulnerabili al furto da parte di minacce interne o avversari esterni, con conseguente potenziale svantaggio competitivo o interruzione operativa.
- Caso d'uso: AI Protection monitora l'accesso non autorizzato a modelli di AI e repository di codice, rileva i tentativi di esfiltrazione di modelli addestrati e i pattern di accesso ai dati insoliti e segnala le vulnerabilità negli ambienti di sviluppo dell'AI per impedire il furto di proprietà intellettuale.
Regole di Event Threat Detection per gli asset Vertex AI
Le seguenti regole di Event Threat Detection eseguono i rilevamenti sugli asset Vertex AI:
- Persistenza: nuovo metodo API AI
- Persistenza: nuova area geografica per il servizio AI
- Privilege Escalation: Anomalous Impersonation of Service Account for AI Admin Activity
- Elevazione dei privilegi: simulatore anomalo dell'identità di un service account per l'accesso ai dati AI
- Elevazione dei privilegi: delega anomala del service account con più passaggi per l'attività di amministrazione AI
- Escalation dei privilegi: delega anomala del service account con più passaggi per l'accesso ai dati AI
- Elevazione dei privilegi: simulatore anomalo dell'identità del service account per l'attività di amministrazione AI
- Accesso iniziale: attività del service account inattivo nel servizio AI
Per saperne di più su Event Threat Detection, consulta la panoramica di Event Threat Detection.
Framework AI Protection
AI Protection utilizza un framework che include controlli cloud specifici che vengono implementati automaticamente in modalità di rilevamento. La modalità di rilevamento significa che il controllo cloud viene applicato alle risorse definite a scopo di monitoraggio. Vengono rilevate eventuali violazioni e vengono generati avvisi. Utilizzi framework e controlli cloud per definire i requisiti di AI Protection e applicarli al tuo ambiente Google Cloud . AI Protection include il framework predefinito, che definisce i controlli di base consigliati per AI Protection. Quando attivi AI Protection, il framework predefinito viene applicato automaticamente all'organizzazione Google Cloud in modalità rilevamento.
Se necessario, puoi creare copie del framework per creare framework di protezione dell'AI personalizzati. Puoi aggiungere i controlli cloud ai tuoi framework personalizzati e applicarli all'organizzazione, alle cartelle o ai progetti. Ad esempio, puoi creare framework personalizzati che applicano controlli giurisdizionali specifici a cartelle specifiche per garantire che i dati all'interno di queste cartelle rimangano in una particolare regione geografica.
Controlli cloud nel framework AI Protection predefinito
Per saperne di più sui controlli cloud utilizzati dal framework AI Protection, consulta Elementi essenziali dell'AI consigliati da Google - Vertex AI.
Aree funzionali supportate per la protezione AI
Questa sezione definisce le aree funzionali che AI Protection può contribuire a proteggere.
- Carichi di lavoro AI: i carichi di lavoro delle applicazioni AI vanno dagli strumenti interni volti a migliorare la produttività dei dipendenti alle soluzioni rivolte ai consumatori progettate per migliorare l'esperienza utente e favorire l'attività. Alcuni esempi includono agenti AI, assistenti virtuali, chatbot di AI conversazionale e consigli personalizzati.
- Agenti AI: gli agenti AI sono sistemi di AI in grado di percepire il proprio ambiente, prendere decisioni e intraprendere azioni per raggiungere obiettivi specifici.
- Modelli AI: i modelli AI sono classificati in modelli AI di base, modelli AI ottimizzati, modelli AI proprietari standard e modelli AI personalizzati. Alcuni esempi sono Gemini, Llama, modelli di traduzione e modelli personalizzati per attività specifiche.
- Asset AI: gli asset AI contribuiscono alle pipeline di operazioni di machine learning
e vengono utilizzati dai carichi di lavoro AI. I tipi di asset AI includono:
- Asset AI dichiarativi: gli strumenti di gestione del ciclo di vita dell'AI, come Vertex AI, monitorano questi asset.
- Asset AI dedotti: asset generici, come asset di calcolo e archiviazione, utilizzati per elaborare dati o carichi di lavoro AI.
- Model-as-a-Service (solo API): asset con chiamate programmatiche a modelli di AI proprietari o di terze parti.
Utilizzare la dashboard AI Security
La dashboard Sicurezza AI ti consente di visualizzare l'inventario degli asset AI della tua organizzazione e di esaminare le mitigazioni proposte per rischi e minacce.
Accedere alla dashboard per la sicurezza dell'AI
Per accedere alla dashboard AI Security, vai alla pagina Panoramica dei rischi > AI Security nella console Google Cloud :
Premium
Aziende
Per saperne di più, consulta la dashboard per la sicurezza dell'AI.
Comprendere la gestione dei rischi per i sistemi di AI
Questa sezione fornisce informazioni sui potenziali rischi associati ai sistemi di AI. Puoi visualizzare i principali rischi nel tuo inventario dell'AI.
Puoi fare clic su qualsiasi problema per aprire un riquadro dei dettagli che fornisce una visualizzazione del problema.
Visualizza minacce AI
Questa sezione fornisce informazioni sulle minacce associate ai sistemi di AI. Puoi visualizzare le 5 minacce recenti più importanti associate alle tue risorse AI.
In questa pagina puoi:
- Fai clic su Visualizza tutto per visualizzare le minacce associate alle tue risorse AI.
- Fai clic su una minaccia per visualizzare ulteriori dettagli.
Visualizzare l'inventario AI
Nella dashboard puoi visualizzare una visualizzazione dell'inventario AI che fornisce un riepilogo dei progetti che coinvolgono l'AI generativa, dei modelli proprietari e di terze parti in uso attivo e dei set di dati utilizzati per l'addestramento dei modelli di terze parti.
In questa pagina puoi:
- Per visualizzare la pagina dei dettagli dell'inventario, fai clic su uno dei nodi nella visualizzazione.
- Per visualizzare un elenco dettagliato delle singole risorse (come i modelli di base e i modelli personalizzati), fai clic sulla descrizione comando.
- Per aprire una visualizzazione dettagliata del modello, fai clic sul modello. Questa visualizzazione mostra dettagli come gli endpoint in cui è ospitato il modello e il set di dati utilizzato per addestrare il modello. Se Sensitive Data Protection è abilitato, la visualizzazione dei set di dati mostra anche se il set di dati contiene dati sensibili.
Rivedi il riepilogo dei risultati del framework AI
Questa sezione ti aiuta a valutare e gestire i risultati del framework AI e delle policy di sicurezza dei dati e include quanto segue:
- Risultati: questa sezione mostra un riepilogo dei risultati generati dalle policy di sicurezza dell'AI e dalle policy di sicurezza dei dati. Fai clic su Visualizza tutti i risultati o sul conteggio di ogni categoria di risultati per visualizzare i dettagli del risultato. Fai clic su un risultato per visualizzare ulteriori informazioni al riguardo.
- Dati sensibili nei set di dati Vertex AI: questa sezione mostra un riepilogo dei risultati basati sui dati sensibili nei set di dati segnalati da Sensitive Data Protection. Per saperne di più, consulta Introduzione a Vertex AI.
Esaminare i risultati di Model Armor
Un grafico mostra il numero totale di prompt o risposte scansionati da Model Armor e il numero di problemi rilevati da Model Armor. Inoltre, mostra statistiche di riepilogo per vari tipi di problemi rilevati, come prompt injection, rilevamento di jailbreak e rilevamento di dati sensibili.
Queste informazioni vengono compilate in base alle metriche che Model Armor pubblica su Cloud Monitoring. Per saperne di più, consulta la panoramica di Model Armor.
Passaggi successivi
- Scopri come configurare la protezione AI.
- Per valutare il rischio, accedi ai dati della dashboard.