Google protège les modèles d’IA contre le piratage

google netwerkkosten eu

Grâce au lancement de Secure AI Framework, Google aide les entreprises à protéger leurs modèles d’IA contre les pirates.

Secure AI Framework (SAIF) est un nouveau guide technique de Google. Il contient notamment un certain nombre de suggestions qui peuvent rendre les modèles d’IA des entreprises plus sûrs contre les pirates.

Be SAIF

Le système garantit que les pirates ne peuvent pas voler les données et le code d’entraînement d’un réseau neuronal. Le SAIF devrait également rendre plus difficile la compromission d’un modèle d’IA par des cyberattaquants.

La puissance des suggestions

Les suggestions sont divisées en six collections.

La première souligne l’importance d’adapter la cybersécurité existante à l’intelligence artificielle, y compris les logiciels contre les injections SQL. Lors d’une telle attaque, les pirates informatiques s’en prennent à une base de données en envoyant de fausses commandes pour voler des données.

La deuxième suggestion concerne la détection des menaces potentielles. Selon Google, il vaut mieux rechercher de manière proactive les contenus malveillants de l’IA ; les administrateurs devraient implémenter des procédures supplémentaires au lieu de se fier uniquement à leurs systèmes de cybersécurité.

La troisième suggestion porte sur la manière dont l’IA peut renforcer cette cybersécurité. Selon Google, l’IA permet de simplifier les tâches complexes, telles que l’analyse du code ou des logiciels malveillants. Le géant de la technologie insiste toutefois sur le fait que le contrôle humain est toujours important.

La quatrième suggestion recommande d’harmoniser les contrôles entre les plates-formes afin de toujours disposer de la meilleure sécurité pour les différentes applications d’IA.

La cinquième est centrée sur un retour d’information plus rapide pour les systèmes d’intelligence artificielle et sur les différentes étapes de leur apprentissage permanent. Voilà comment les systèmes restent à jour.

Enfin, la sixième porte sur l’examen des risques de bout en bout auxquels une entreprise peut être confrontée lors du déploiement de l’IA.

En plus

En outre, Google recommande aux équipes de sécurité de faire régulièrement le point sur les systèmes d’IA utilisés par les employés et de mettre en place une norme pour les outils qu’ils utilisent dans le cadre de leurs tâches.

Consultez le rapport pour obtenir toutes les suggestions et des informations plus détaillées.

Concernant la sécurité, Google a récemment ajouté la biométrie au gestionnaire de mots de passe. Pour les entreprises qui souhaitent une assistance supplémentaire en matière d’IA générative, le géant technologique a également proposé de nouveaux services de conseil il y a quelques jours.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.