Meta présente le Frontier AI Framework pour un développement plus sûr de l’IA

Meta présente le Frontier AI Framework pour un développement plus sûr de l’IA

Dans un nouveau document d’orientation, Meta indique qu’elle pourrait mettre un terme aux systèmes d’IA à risque.

Meta a présenté un Frontier AI Framework, une ligne directrice pour le développement et la diffusion de modèles d’IA avancés en mettant l’accent sur les risques et la sécurité. Le document décrit comment Meta effectue des évaluations des risques, analyse les scénarios de menace et applique la prise de décision pour gérer l’impact de la technologie de l’IA.

Gestion de l’IA et évaluation des risques

Le Frontier AI Framework fait partie du programme plus large de gouvernance de l’IA de Meta. Il se concentre spécifiquement sur les modèles d’IA les plus avancés qui peuvent présenter un risque potentiellement catastrophique. Meta adopte une approche axée sur les résultats, en évaluant les risques sur la base des conséquences potentielles plutôt que sur les seules capacités techniques.

lire aussi

Meta veut investir 65 milliards de dollars dans l’infrastructure de l’IA, malgré les interrogations sur le processus de formation

La modélisation des menaces est un aspect essentiel du cadre. Meta identifie des scénarios dans lesquels l’IA pourrait contribuer à des incidents de cybersécurité à grande échelle ou à la mise au point d’armes chimiques et biologiques. Les modèles d’IA sont soumis à des évaluations et à des tests, tels que la modélisation des menaces et le red teaming, auxquels participent des experts externes.

Seuils et mesures

Le cadre introduit un modèle en trois étapes pour classer les risques liés à l’IA : critique, élevé et modéré.

  • Critique : Le modèle peut directement permettre la réalisation d’un scénario de menace catastrophique. Le développement est interrompu jusqu’à ce que des mesures d’atténuation efficaces soient trouvées.
  • Élevé : le modèle augmente la probabilité d’un scénario de menace, mais ne peut pas l’exécuter entièrement. Il n’est pas diffusé à l’extérieur.
  • Modéré : il n’y a pas d’augmentation significative du risque. Le modèle peut être diffusé moyennant des mesures de sécurité appropriées.

Meta souligne que l’écosystème de l’IA est en constante évolution et que le cadre sera mis à jour à l’avenir sur la base des nouveaux développements technologiques et de l’analyse des menaces.