AI Protection vous aide à gérer la stratégie de sécurité de vos charges de travail d'IA en détectant les menaces et en vous aidant à atténuer les risques pour votre inventaire d'assets d'IA. Ce document fournit une présentation générale d'AI Protection, y compris ses avantages et plusieurs concepts clés. La protection par IA est disponible avec les activations de Security Command Center au niveau de l'organisation.
Pour les niveaux de service Premium et Enterprise, lorsque Security Command Center est activé au niveau de l'organisation, la protection de l'IA permet d'obtenir une vue complète de la sécurité de l'IA dans l'ensemble de votre environnement Google Cloud . Le tableau de bord AI Protection de la console Google Cloud affiche un ensemble cohérent de widgets et de fonctionnalités, avec des données agrégées de tous les projets et ressources de l'organisation.
Fonctionnalités de la protection de l'IA
La protection de l'IA vous aide à gérer les menaces et les risques pour vos systèmes d'IA de différentes manières :
- Inventaire des composants d'IA à l'échelle de l'organisation : vous aide à découvrir, évaluer et gérer vos systèmes et composants d'IA dans tous les projets, y compris les modèles, les ensembles de données, les points de terminaison, Vertex AI, Cloud Storage et BigQuery.
- Gestion intégrée des risques et des failles : vous aide à identifier, analyser et gérer les failles, les erreurs de configuration, les menaces et les risques spécifiques à l'IA pour vos composants d'IA, avec un contexte organisationnel complet.
- Aide à la conformité : vous aide à vérifier le respect des normes de sécurité pertinentes à l'aide des contrôles de détection du cadre de protection de l'IA.
- Visibilité sur la sécurité des données : s'intègre à des services tels que Data Security Posture Management pour fournir des insights sur la sensibilité, la traçabilité et les risques associés à vos charges de travail d'IA.
- Gestion unifiée de la sécurité de l'IA : vous aide à surveiller et à appliquer les règles et les bonnes pratiques de sécurité de l'IA de manière cohérente dans toute votre organisation à partir d'un tableau de bord unique et centralisé. AI Protection vous aide également à détecter les menaces, les failles et les erreurs de configuration potentielles, et à y répondre.
- Aide à la sensibilisation aux risques : contribue à minimiser les risques financiers, de réputation et juridiques associés aux failles de sécurité et au non-respect des réglementations dans vos déploiements d'IA.
Cas d'utilisation d'AI Protection
AI Protection aide les entreprises à renforcer leur sécurité en identifiant et en atténuant les menaces et les risques liés aux systèmes d'IA et aux données sensibles. Les cas d'utilisation suivants illustrent comment la protection de l'IA peut être utilisée dans différentes organisations :
Établissement de services financiers : données financières des clients
Une grande institution de services financiers utilise des modèles d'IA qui traitent des données financières sensibles.
- Problème : Le traitement de données financières très sensibles avec des modèles d'IA comporte plusieurs risques, y compris le risque de fuite de données, d'exfiltration de données lors de l'entraînement ou de l'inférence, et de vulnérabilités dans l'infrastructure d'IA sous-jacente.
- Cas d'utilisation : AI Protection surveille en permanence les workflows d'IA pour détecter les activités suspectes, s'efforce de détecter les accès non autorisés aux données et les comportements anormaux des modèles, classe les données sensibles et contribue à améliorer votre conformité avec les réglementations telles que PCI DSS et le RGPD.
Fournisseur de soins de santé : confidentialité et conformité des patients
Un grand prestataire de santé gère des dossiers médicaux électroniques et utilise l'IA pour les diagnostics et la planification des traitements, en traitant des informations de santé protégées (PHI).
- Défi : Les informations de santé protégées analysées par les modèles d'IA sont soumises à des réglementations strictes comme la loi HIPAA. Les risques incluent l'exposition accidentelle d'informations de santé protégées en raison d'une mauvaise configuration ou d'attaques malveillantes ciblant les systèmes d'IA pour obtenir des données sur les patients.
- Cas d'utilisation : la protection par IA identifie les potentielles violations de la loi HIPAA et vous en avertit, détecte les accès non autorisés aux informations de santé protégées par des modèles ou des utilisateurs, signale les services d'IA vulnérables et potentiellement mal configurés, et surveille les fuites de données.
Entreprise de fabrication et de robotique : propriété intellectuelle exclusive
Une entreprise manufacturière spécialisée dans la robotique avancée et l'automatisation s'appuie fortement sur l'IA pour optimiser les chaînes de production et le contrôle robotique, avec une propriété intellectuelle (PI) vitale intégrée à ses algorithmes d'IA et à ses données de fabrication.
- Problème : les algorithmes d'IA propriétaires et les données opérationnelles sensibles sont vulnérables au vol par des personnes internes malveillantes ou des adversaires externes, ce qui peut entraîner un désavantage concurrentiel ou une perturbation opérationnelle.
- Cas d'utilisation : AI Protection surveille les accès non autorisés aux modèles d'IA et aux dépôts de code, détecte les tentatives d'exfiltration de modèles entraînés et les schémas d'accès aux données inhabituels, et signale les failles dans les environnements de développement d'IA pour empêcher le vol de propriété intellectuelle.
Règles Event Threat Detection pour les composants Vertex AI
Les règles Event Threat Detection suivantes exécutent des détections sur les composants Vertex AI :
- Persistance : Nouvelle méthode d'API d'IA
- Persistance : nouvelle zone géographique pour le service d'IA
- Élévation des privilèges : emprunt d'identité anormal d'un compte de service pour une activité d'administration d'IA
- Élévation des privilèges : emprunt d'identité anormal d'un compte de service pour l'accès à des données d'IA
- Élévation des privilèges : délégation de compte de service multi-étapes anormale pour une activité d'administration d'IA
- Élévation des privilèges : délégation de compte de service multi-étapes anormale pour l'accès à des données d'IA
- Élévation des privilèges : emprunt d'identité anormal d'un compte de service pour une activité d'administration d'IA
- Accès initial : activité de compte de service inactif dans le service d'IA
Pour en savoir plus sur Event Threat Detection, consultez la présentation d'Event Threat Detection.
Framework de protection de l'IA
La protection de l'IA utilise un framework qui inclut des contrôles cloud spécifiques déployés automatiquement en mode Détection. Le mode Détective signifie que le contrôle cloud est appliqué aux ressources définies à des fins de surveillance. Tous les cas de non-respect des règles sont détectés et des alertes sont générées. Vous utilisez des frameworks et des contrôles cloud pour définir vos exigences en matière de protection de l'IA et les appliquer à votre environnement Google Cloud . La protection de l'IA inclut le cadre par défaut, qui définit les contrôles de base recommandés pour la protection de l'IA. Lorsque vous activez la protection par IA, le framework par défaut est automatiquement appliqué à l'organisation Google Cloud en mode détection.
Si nécessaire, vous pouvez créer des copies du framework pour créer des frameworks AI Protection personnalisés. Vous pouvez ajouter les contrôles cloud à vos frameworks personnalisés et les appliquer à l'organisation, aux dossiers ou aux projets. Par exemple, vous pouvez créer des frameworks personnalisés qui appliquent des contrôles juridictionnels spécifiques à des dossiers spécifiques pour vous assurer que les données de ces dossiers restent dans une région géographique particulière.
Contrôles cloud dans le framework AI Protection par défaut
Pour en savoir plus sur les contrôles cloud utilisés par le framework AI Protection, consultez Principes essentiels recommandés par Google pour l'IA : Vertex AI.
Domaines fonctionnels compatibles avec la protection de l'IA
Cette section définit les domaines fonctionnels que la protection par IA peut aider à sécuriser.
- Charges de travail d'IA : les charges de travail des applications d'IA vont des outils internes visant à améliorer la productivité des employés aux solutions destinées aux consommateurs, conçues pour améliorer l'expérience utilisateur et stimuler l'activité. Il s'agit par exemple des agents d'IA, des assistants virtuels, des chatbots d'IA conversationnelle et des recommandations personnalisées.
- Agents IA : il s'agit de systèmes d'IA capables de percevoir leur environnement, de prendre des décisions et d'effectuer des actions pour atteindre des objectifs spécifiques.
- Modèles d'IA : les modèles d'IA sont classés en modèles d'IA de base, modèles d'IA affinés, modèles d'IA first party standards et modèles d'IA personnalisés. Par exemple, Gemini, Llama, les modèles de traduction et les modèles personnalisés pour des tâches spécifiques.
- Composants d'IA : les composants d'IA contribuent aux pipelines d'opérations de machine learning et sont utilisés par les charges de travail d'IA. Voici quelques exemples de composants d'IA :
- Composants d'IA déclaratifs : les outils de gestion du cycle de vie de l'IA, tels que Vertex AI, suivent ces composants.
- Composants d'IA inférés : composants à usage général, tels que les composants de calcul et de stockage, utilisés pour traiter les données ou les charges de travail d'IA.
- Model-as-a-Service (API uniquement) : composants comportant des appels programmatiques vers des modèles d'IA first party ou tiers.
Utiliser le tableau de bord Sécurité de l'IA
Le tableau de bord Sécurité de l'IA vous permet de visualiser l'inventaire des composants d'IA de votre organisation et d'examiner les mesures d'atténuation proposées pour les risques et les menaces.
Accéder au tableau de bord Sécurité de l'IA
Pour accéder au tableau de bord "Sécurité de l'IA", accédez à la page Aperçu des risques > Sécurité de l'IA dans la console Google Cloud :
Premium
Entreprise
Pour en savoir plus, consultez Tableau de bord de sécurité de l'IA.
Comprendre la gestion des risques pour les systèmes d'IA
Cette section fournit des informations sur les risques potentiels associés aux systèmes d'IA. Vous pouvez consulter les principaux risques dans votre inventaire d'IA.
Vous pouvez cliquer sur n'importe quel problème pour ouvrir un volet d'informations qui fournit une visualisation du problème.
Afficher les menaces liées à l'IA
Cette section fournit des informations sur les menaces associées aux systèmes d'IA. Vous pouvez consulter les cinq menaces récentes les plus importantes associées à vos ressources d'IA.
Sur cette page, vous pouvez effectuer les opérations suivantes :
- Cliquez sur Afficher tout pour afficher les menaces associées à vos ressources d'IA.
- Cliquez sur une menace pour en afficher les détails.
Visualiser votre inventaire IA
Vous pouvez afficher une visualisation de votre inventaire d'IA sur le tableau de bord, qui fournit un récapitulatif des projets impliquant l'IA générative, des modèles first party et tiers en cours d'utilisation, ainsi que des ensembles de données utilisés pour entraîner les modèles tiers.
Sur cette page, vous pouvez effectuer les opérations suivantes :
- Pour afficher la page d'informations sur l'inventaire, cliquez sur l'un des nœuds de la visualisation.
- Pour afficher la liste détaillée des composants individuels (tels que les modèles de base et les modèles personnalisés), cliquez sur l'info-bulle.
- Pour ouvrir une vue détaillée du modèle, cliquez dessus. Cette vue affiche des détails tels que les points de terminaison où le modèle est hébergé et l'ensemble de données utilisé pour entraîner le modèle. Si la protection des données sensibles est activée, la vue "Ensembles de données" indique également si l'ensemble de données contient des données sensibles.
Examiner le résumé des conclusions du framework d'IA
Cette section vous aide à évaluer et à gérer les résultats des règles de sécurité de l'IA et des données. Elle comprend les éléments suivants :
- Résultats : cette section affiche un récapitulatif des résultats générés par les règles de sécurité de l'IA et des données. Cliquez sur Afficher tous les résultats ou sur le nombre à côté de chaque catégorie de résultat pour afficher les détails du résultat. Cliquez sur un résultat pour afficher des informations supplémentaires à son sujet.
- Données sensibles dans les ensembles de données Vertex AI : cette section affiche un récapitulatif des résultats basés sur les données sensibles dans les ensembles de données, tels qu'ils sont signalés par Sensitive Data Protection. Pour en savoir plus, consultez la Présentation de Vertex AI.
Examiner les résultats Model Armor
Un graphique indique le nombre total de requêtes ou de réponses analysées par Model Armor et le nombre de problèmes détectés par Model Armor. De plus, il affiche des statistiques récapitulatives pour différents types de problèmes détectés, tels que l'injection de requêtes, la détection de jailbreak et la détection de données sensibles.
Ces informations sont renseignées en fonction des métriques que Model Armor publie dans Cloud Monitoring. Pour en savoir plus, consultez la présentation de Model Armor.
Étapes suivantes
- Découvrez comment configurer la protection par IA.
- Pour évaluer les risques, accédez aux données du tableau de bord.