Un nouvel agent d’IA d’OpenAI, Codex Security, analyse l’intégralité du code, détecte et résout les vulnérabilités.
OpenAI a lancé Codex Security, un agent d’IA qui analyse les projets logiciels, détecte les vulnérabilités et propose automatiquement des correctifs pour y remédier.
Agent d’IA pour la sécurité des applications
L’outil analyse une base de code complète et construit d’abord un modèle de menace du système. Sur cette base, il peut détecter les vulnérabilités et les hiérarchiser en fonction de leur impact réel sur l’application.
Dans la mesure du possible, l’agent tente également de valider les vulnérabilités dans un environnement bac à sable, afin que les équipes de sécurité perdent moins de temps avec des alertes non pertinentes.
Moins
Lors des tests en version bêta, Codex Security a pu réduire considérablement le nombre de messages d’erreur. Dans certains dépôts, le bruit a été réduit de 84 % et le nombre d’erreurs a diminué de plus de 50 %. L’outil a en outre proposé des correctifs qui tiennent compte de la structure et de l’intention du système.
Plus d’un million de commits analysés
Dans la version bêta, Codex Security a analysé plus de 1,2 million de commits dans des dépôts externes. À cette occasion, 792 vulnérabilités critiques et plus de 10 000 problèmes de haute gravité ont été trouvés.
OpenAI rapporte que des vulnérabilités critiques apparaissaient dans moins de 0,1 % des commits, ce qui, selon l’entreprise, démontre que le système peut détecter des problèmes pertinents sans submerger les équipes de sécurité d’avertissements.
Codex Security est actuellement disponible en version de recherche pour les utilisateurs de ChatGPT Pro, Enterprise, Business et Edu via l’interface web de Codex. L’outil sera déployé plus largement dans les semaines à venir et est provisoirement gratuit pendant un mois.
