OpenAI lance GPT-5.4-Cyber, un modèle d’IA spécifiquement entraîné pour la cybersécurité. Ce nouveau modèle doit offrir des capacités défensives aux utilisateurs vérifiés.
OpenAI introduit un nouveau modèle d’IA, GPT-5.4-Cyber, entraîné pour la cybersécurité. Le modèle arrive quelques jours après la naissance de l’agent d’IA d’Anthropic, Claude Mythos. Le déploiement de GPT-5.4-Cyber s’inscrit dans le cadre du programme « Trusted Access for Cyber » d’OpenAI. Avec ce modèle adapté de GPT-5.4, OpenAI souhaite soutenir les professionnels responsables des logiciels et des infrastructures critiques.
Plus de liberté
GPT-5.4-Cyber est une variante de GPT-5.4, spécifiquement entraînée pour soutenir les défenseurs cyber. Le modèle est moins strict dans le refus des requêtes pour des tâches de cybersécurité légitimes. De cette manière, les experts en sécurité peuvent tester si leurs logiciels sont vulnérables à une utilisation par des cybercriminels.
Tout le monde ne peut pas utiliser le modèle n’importe comment. Le modèle est actuellement déployé uniquement au sein du programme TAC. L’accès à GPT-5.4-Cyber est déployé de manière progressive auprès de fournisseurs de sécurité, d’organisations et de chercheurs sélectionnés.
Sur les traces d’Anthropic
Cette annonce ne survient pas par hasard après qu’Anthropic a récemment lancé son premier agent de sécurité par IA, Claude Mythos. Selon l’entreprise, le modèle a déjà pu découvrir des milliers de vulnérabilités, et même détecter une faille vieille de 27 ans.
Tout comme GPT-5.4-Cyber, le modèle Claude Mythos d’Anthropic fait l’objet d’une disponibilité limitée. « Claude Mythos est disponible pour les entreprises qui gèrent les codes les plus cruciaux au monde afin d’examiner comment elles peuvent utiliser le modèle pour limiter les risques de sécurité », a déclaré Logan Graham, Frontier Red Team Lead chez Anthropic, dans une récente annonce. Anthropic ne le commercialise donc pas encore largement avec une disponibilité générale.
Les premiers agents de sécurité par IA font leur apparition, ce qui soulève des interrogations. Anthropic garde son modèle fermé et souligne les risques associés à ces modèles. « Un tel modèle d’IA peut également causer des dommages s’il tombe entre de mauvaises mains », a expliqué Graham. Le modèle d’OpenAI, en revanche, est basé sur un modèle existant, à savoir GPT-5.4, et deviendra plus largement disponible après une période de test.
Récemment, OpenAI a mis de côté son outil vidéo Sora pour se concentrer davantage, entre autres, sur ses outils de codage.
