
OpenAI a dévoilé Aardvark, un chercheur en sécurité agentique, autonome et propulsé par le LLM GPT-5. Il a été conçu pour fonctionner comme un véritable expert humain : Aardvark est capable d’analyser, de comprendre et de corriger du code source afin d’améliorer la sécurité.
Aardvark : un chercheur en sécurité dopé à l’IA
Disponible dans le cadre d’une bêta privée, Aardvark est capable de s’intégrer directement dans le cycle de développement logiciel pour surveiller les dépôts de code, analyser les commits effectués par les développeurs, et ainsi, détecter automatiquement les failles de sécurité. En effet, l’introduction de nouvelles failles de sécurité dans un code source peut passer par les commits, notamment dans le cadre de l’ajout d’une nouvelle fonctionnalité, par exemple.
“Aardvark analyse en continu les dépôts de code source afin d’identifier les vulnérabilités, d’évaluer leur exploitabilité, de hiérarchiser leur gravité et de proposer des correctifs ciblés.”, précise OpenAI.
Aardvark s’intègre donc dans la chaîne DevSecOps afin de :
Surveiller en continu les modifications du code,
Identifier les failles potentielles et évaluer leur exploitabilité,
Proposer des correctifs automatiques obtenus par l’intermédiaire d’OpenAI Codex
Pour autant, l’humain n’est pas mis de côté, et on semble davantage dans une approche human-in-the-loop : “Aardvark explique étape par étape les vulnérabilités qu’il détecte, en annotant le code pour permettre une vérification humaine.”, peut-on lire. Pour vérifier l’impact réel d’une faille, Aardvark la teste dans un environnement isolé (sandbox), ce qui lui permet de confirmer son exploitabilité avant de suggérer un patch.
Source : OpenAI
Le géant américain de l’IA affirme déjà utiliser cet agent en interne pour ses propres dépôts de code, ainsi que chez certains partenaires externes. “Aardvark est en service depuis plusieurs mois et fonctionne en continu sur les bases de code internes d’OpenAI et celles de ses partenaires alpha externes. Au sein d’OpenAI, il a permis de mettre au jour des vulnérabilités importantes et a contribué à renforcer la posture défensive d’OpenAI.”, peut-on lire.
D’ailleurs, Aardvark aurait contribué à la découverte d’au moins 10 vulnérabilités (CVE) dans des projets open source.
GPT-5 : le moteur de cet agent
Sous le capot, Aardvark repose sur GPT-5, le dernier modèle de langage d’OpenAI introduit en août 2025. Ce modèle se distingue par des capacités de raisonnement plus profondes, un mécanisme de routage en temps réel et une approche optimisée du choix des outils selon le contexte. Dans le cas présent, GPT-5 est utilisé par l’agent autonome Aardvark en tant que modèle orienté défense.
“Aardvark représente un nouveau modèle axé sur la défense : un chercheur en sécurité proactif qui s’associe à des équipes pour leur offrir une protection continue à mesure que le code évolue.”, précise l’annonce officielle.
Ce que propose OpenAI avec Aardvark rappelle CodeMender de chez Google, un outil concurrent capable de détecter et corriger automatiquement des vulnérabilités dans du code. Enfin, si vous souhaitez demander un accès à Aardvark, vous devez compléter ce formulaire sur le site d’OpenAI.
Qu’en pensez-vous ?
Récemment, OpenAI a également dévoilé ChatGPT Atlas, son navigateur web avec l’IA intégrée. Très rapidement, un problème de sécurité associé à l’omnibox d’Atlas a été mis en lumière par des chercheurs en sécurité.
Source
Ingénieur système et réseau, cofondateur d’IT-Connect et Microsoft MVP “Cloud and Datacenter Management”. Je souhaite partager mon expérience et mes découvertes au travers de mes articles. Généraliste avec une attirance particulière pour les solutions Microsoft et le scripting. Bonne lecture.
