Google Cloud présente la sécurité par et pour l’IA lors du Security Summit

google cloud

Google Cloud lance de nouvelles fonctions pour sécuriser les agents d’IA, mais intègre également l’IA comme outil supplémentaire pour les experts en sécurité.

Lors du Security Summit 2025, Google Cloud annonce de nouvelles fonctions de sécurité pour mieux protéger les applications d’IA et l’infrastructure cloud. Les mises à jour visent à la fois à sécuriser les systèmes d’IA et à renforcer les équipes de sécurité grâce à des outils assistés par l’IA.

Sécurité de l’IA

Selon Google, à mesure que les organisations déploient davantage d’agents d’IA, la nécessité de protéger ces systèmes contre les abus augmente également. Google Cloud introduit donc trois nouvelles fonctions au sein de son Security Command Center, spécifiquement axées sur une meilleure protection des systèmes d’IA :

  • Inventaire automatique et évaluation des risques : Une nouvelle fonction d’inventaire découvre automatiquement les agents d’IA et l’infrastructure associée, et signale les vulnérabilités et les erreurs de configuration.
  • Protection en temps réel et politique de sécurité : La protection en ligne via Model Armor empêche, entre autres, l’injection d’invite et les fuites de données sensibles. En outre, Google ajoute des contrôles de politique spécifiques pour aligner les agents d’IA sur les normes de sécurité internes.
  • Détection proactive des menaces liées à l’IA : De nouveaux mécanismes de détection aident à identifier les comportements anormaux au sein des environnements d’agents, notamment grâce aux informations de Mandiant et de la propre intelligence des menaces de Google.

L’IA pour la sécurité

Google a déjà évoqué en avril un centre d’opérations de sécurité (SOC) axé sur l’IA. Outre la protection de l’IA, Google présente donc également des outils pour renforcer les équipes de sécurité elles-mêmes grâce à l’IA :

  • Agent d’investigation des alertes : Cet agent fait partie de la vision AI-SOC et peut enquêter de manière indépendante sur les incidents et faire des recommandations. L’agent doit ainsi réduire la charge de travail des analystes. L’agent est disponible en version préliminaire.
  • Conseils de sécurité de l’IA via Mandiant : Les organisations peuvent faire appel à Mandiant pour obtenir des conseils sur la gestion des risques liés à l’IA, la modélisation des menaces et la gouvernance pré-déploiement.
Recherche et triage avec un agent d’IA (image : Google)

Au sein de la plateforme plus large de Google Unified Security, Google effectue plusieurs mises à jour :

  • Dans Security Operations, les utilisateurs ont accès à des expériences avec Gemini AI et à de nouveaux tableaux de bord pour l’intégration des données SOAR.
  • Dans Chrome Enterprise, les protections du navigateur sont étendues aux appareils mobiles, y compris le filtrage d’URL sur iOS pour bloquer les outils d’IA indésirables.

Avec ces annonces, Google montre d’une part comment il veut jouer un rôle dans la sécurité de l’IA. D’autre part, le fabricant considère l’essor de l’IA générative comme une opportunité de développer une présence plus active dans l’écosystème plus large autour de la sécurité.