Microsoft introduit de nouveaux agents IA au sein de Security Copilot pour automatiser les tâches de sécurité et annonce des mesures supplémentaires pour mieux sécuriser les systèmes d’IA.
Microsoft ajoute onze agents IA à Security Copilot, dont six développés par Microsoft lui-même et cinq par des partenaires externes. Les agents sont conçus pour aider les organisations à détecter, analyser et répondre aux incidents de sécurité. Ils se concentrent sur les menaces courantes telles que l’hameçonnage, les vulnérabilités et la gestion des identités.
Les agents IA sont une tendance à laquelle personne ne peut échapper aujourd’hui. Bien que Salesforce positionne les agents IA sur le marché comme une attaque directe contre le Copilot de Microsoft, Microsoft saute également pleinement dans le train en marche.
Onze agents IA
Microsoft annonce son équipe de onze agents IA dans un blog. Six d’entre eux ont été formés par Microsoft lui-même, les cinq autres sont mis à disposition par des partenaires de sécurité externes via Security Copilot. Le nouveau Phishing Triage Agent au sein de Microsoft Defender traite automatiquement les signalements de phishing. Cela permet aux équipes de sécurité de se concentrer sur des menaces plus complexes.
Un autre agent, intégré à Microsoft Entra, propose des optimisations dans la politique d’accès conditionnel. Microsoft Intune reçoit un Vulnerability Remediation Agent qui surveille les vulnérabilités et exécute les correctifs plus rapidement. De plus, Microsoft Purview est étendu avec des agents de sécurité des données qui analysent les alertes concernant la perte de données et les risques internes. Enfin, un Threat Intelligence Briefing Agent fournit aux organisations des rapports de menaces personnalisés.
Mesures pour la sécurité de l’IA
Microsoft propose également de nouvelles mesures pour sécuriser les systèmes d’IA génératifs. Ainsi, Defender étend sa gestion de la posture de sécurité IA à Google Vertex AI et à divers modèles tels que Gemini, Meta Llama et Mistral. Ces fonctionnalités seront disponibles en version préliminaire à partir de mai.
lire aussi
Microsoft souhaite reconnaître les données d’entraînement pertinentes pour l’IA dans les réponses
Parallèlement, une protection contre les nouvelles menaces liées à l’IA est mise en place, telles que l’injection de prompt indirecte et les fuites de données sensibles dans les applications d’IA. Microsoft Entra introduit des filtres pour limiter l’accès aux applications d’IA non autorisées, et via Microsoft Purview, les organisations peuvent empêcher les données sensibles d’être saisies via le navigateur dans les chats d’IA tels que ChatGPT ou Google Gemini.
Enfin, Microsoft Teams bénéficie d’une protection supplémentaire contre le phishing via Defender for Office 365. Les utilisateurs sont protégés contre les liens et fichiers malveillants au sein de la plateforme, avec une visibilité complète pour les équipes SOC. Les nouvelles fonctionnalités seront disponibles en version préliminaire ou en disponibilité générale à partir d’avril ou mai.