Utiliser l'IA pour la sécurité

Last reviewed 2025-02-05 UTC

Ce principe du pilier "Sécurité" du Google Cloud Well-Architected Framework fournit des recommandations pour utiliser l'IA afin d'améliorer la sécurité de vos charges de travail cloud.

En raison du nombre croissant et de la sophistication des cyberattaques, il est important de tirer parti du potentiel de l'IA pour améliorer la sécurité. L'IA peut contribuer à réduire le nombre de menaces, à diminuer l'effort manuel requis par les professionnels de la sécurité et à compenser la pénurie d'experts dans le domaine de la cybersécurité.

Présentation du principe

Utilisez les fonctionnalités d'IA pour améliorer vos systèmes et processus de sécurité existants. Vous pouvez utiliser Gemini dans Security ainsi que les fonctionnalités d'IA intrinsèques intégrées aux Google Cloud services.

Ces fonctionnalités d'IA peuvent transformer la sécurité en fournissant une assistance à chaque étape du cycle de vie de la sécurité. Par exemple, vous pouvez utiliser l'IA pour effectuer les opérations suivantes :

  • Analyser et expliquer le code potentiellement malveillant sans rétro-ingénierie.
  • Réduire le travail répétitif des professionnels de la cybersécurité.
  • Utiliser le langage naturel pour générer des requêtes et interagir avec les données d'événements de sécurité.
  • Afficher des informations contextuelles.
  • Proposer des recommandations pour des réponses rapides.
  • Aider à la correction des événements.
  • Récapituler les alertes à priorité élevée en cas d'erreur de configuration et de faille, en soulignant l'impact potentiel et en recommandant des mesures d'atténuation.

Niveaux d'autonomie en matière de sécurité

L'IA et l'automatisation peuvent vous aider à obtenir de meilleurs résultats en matière de sécurité lorsque vous faites face à des menaces de cybersécurité en constante évolution. En utilisant l'IA pour la sécurité, vous pouvez atteindre des niveaux d'autonomie plus élevés pour détecter et prévenir les menaces, et améliorer votre stratégie de sécurité globale. Google définit quatre niveaux d'autonomie lorsque vous utilisez l'IA pour la sécurité. Ils décrivent le rôle croissant de l'IA dans l' assistance et, à terme, dans la gestion des tâches de sécurité :

  1. Manuel : les humains exécutent toutes les tâches de sécurité (prévention, détection, priorisation et réponse) tout au long du cycle de vie de la sécurité.
  2. Assisté : les outils d'IA, comme Gemini, améliorent la productivité humaine en résumant les informations, en générant des insights et en formulant des recommandations.
  3. Semi-autonome : l'IA assume la responsabilité principale de nombreuses tâches de sécurité et ne délègue aux humains que lorsque cela est nécessaire.
  4. Autonome : l'IA agit comme un assistant de confiance qui gère le cycle de vie de la sécurité en fonction des objectifs et des préférences de votre organisation, avec une intervention humaine minimale.

Recommandations

Les sections suivantes décrivent les recommandations pour utiliser l'IA à des fins de sécurité. Elles indiquent également comment les recommandations s'alignent sur les éléments fondamentaux du framework d'IA sécurisé (SAIF) de Google et comment elles sont pertinentes pour les niveaux d'autonomie en matière de sécurité.

Google Cloud

Améliorer la détection et la gestion des menaces grâce à l'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Opérations de sécurité (SecOps)
  • Journalisation, audit et surveillance

L'IA peut analyser de grands volumes de données de sécurité, fournir des insights sur le comportement des acteurs malveillants et automatiser l'analyse du code potentiellement malveillant. Cette recommandation est alignée sur les éléments SAIF suivants :

  • Étendre la détection et la réponse pour intégrer l'IA à la gestion des menaces de votre organisation.
  • Automatiser les défenses pour s'adapter aux menaces nouvelles et existantes.

Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants :

  • Assisté : l'IA aide à l'analyse et à la détection des menaces.
  • Semi-autonome : l'IA assume davantage de responsabilités pour la tâche de sécurité.

Google Threat Intelligence, qui utilise l'IA pour analyser le comportement des acteurs malveillants et le code malveillant, peut vous aider à mettre en œuvre cette recommandation.

Simplifier la sécurité pour les experts et les non-experts

Cette recommandation concerne les domaines d'intérêt suivants :

  • Opérations de sécurité (SecOps)
  • Gouvernance, risques et conformité dans le cloud

Les outils basés sur l'IA peuvent résumer les alertes et recommander des mesures d'atténuation. Ces fonctionnalités peuvent rendre la sécurité plus accessible à un plus grand nombre de personnes. Cette recommandation est alignée sur les éléments SAIF suivants :

  • Automatiser les défenses pour s'adapter aux menaces nouvelles et existantes.
  • Harmoniser les contrôles au niveau de la plate-forme afin de permettre une sécurité homogène dans l'organisation.

Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants :

  • Assisté : l'IA vous aide à améliorer l'accessibilité des informations de sécurité.
  • Semi-autonome : l'IA contribue à rendre les pratiques de sécurité plus efficaces pour tous les utilisateurs.

Gemini in Security Command Center peut fournir des résumés des alertes en cas d'erreurs de configuration et de failles.

Automatiser les tâches de sécurité les plus longues grâce à l'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Sécurité de l'infrastructure
  • Opérations de sécurité (SecOps)
  • Sécurité des applications

L'IA peut automatiser des tâches telles que l'analyse des logiciels malveillants, la génération de règles de sécurité et l'identification des erreurs de configuration. Ces fonctionnalités peuvent contribuer à réduire la charge de travail des équipes de sécurité et à accélérer les délais de réponse. Cette recommandation est alignée sur l'élément SAIF concernant l'automatisation des défenses pour s'adapter aux menaces nouvelles et existantes.

Selon votre implémentation, cette recommandation peut être pertinente pour les niveaux d'autonomie suivants :

  • Assisté : l'IA vous aide à automatiser les tâches.
  • Semi-autonome : l'IA assume la responsabilité principale des tâches de sécurité, et ne demande l'aide humaine que lorsque cela est nécessaire.

Gemini in Google SecOps peut vous aider à automatiser les tâches les plus longues en assistant les analystes, en récupérant le contexte pertinent et en formulant des recommandations pour les prochaines étapes.

Intégrer l'IA dans les processus de gestion des risques et de gouvernance

Cette recommandation concerne le domaine d'intérêt suivant : gouvernance, risques et conformité dans le cloud.

Vous pouvez utiliser l'IA pour créer un inventaire de modèles et des profils de risque. Vous pouvez également utiliser l'IA pour mettre en œuvre des règles concernant la confidentialité des données, les cyberrisques et les risques tiers. Cette recommandation est alignée sur l'élément SAIF concernant la contextualisation des risques liés aux systèmes d'IA dans les processus métiers connexes.

Selon votre implémentation, cette recommandation peut être pertinente pour le niveau d'autonomie semi-autonome. À ce niveau, l'IA peut orchestrer des agents de sécurité qui exécutent des processus pour atteindre vos objectifs de sécurité personnalisés.

Mettre en œuvre des pratiques de développement sécurisé pour les systèmes d'IA

Cette recommandation concerne les domaines d'intérêt suivants :

  • Sécurité des applications
  • Sécurité de l'IA et du ML

Vous pouvez utiliser l'IA pour le codage sécurisé, le nettoyage des données d'entraînement et la validation des outils et des artefacts. Cette recommandation est alignée sur l'élément SAIF concernant le développement de bases solides pour la sécurité de l'écosystème d'IA.

Cette recommandation peut être pertinente pour tous les niveaux d'autonomie en matière de sécurité, car un système d'IA sécurisé doit être en place avant que l'IA puisse être utilisée efficacement à des fins de sécurité. La recommandation est plus pertinente pour le niveau assisté, où les pratiques de sécurité sont augmentées par l'IA.

Pour mettre en œuvre cette recommandation, suivez les consignes SLSA (Supply-chain Levels for Software Artifacts) pour les artefacts d'IA et utilisez des images de conteneurs validées.