Llama 3 de Meta évite les questions controversées de moins en moins

meta llama 3

La nouvelle version du LLM Llama de Meta sortira peut-être en juillet. La principale modification portera sur la manière dont le modèle traite les questions qu’il considère comme « controversées ».

En janvier, Mark Zuckerberg a annoncé que son entreprise Meta avait commencé à former Llama 3, la troisième génération du LLM. Selon The Information, le lancement de ce modèle pour un public plus large aura lieu en juillet, mais Meta ne dit rien à ce sujet pour l’instant. Meta intègre son modèle linguistique dans ses propres plateformes de médias sociaux, entre autres, pour alimenter les fonctions d’IA générative.

Questions controversées

Toujours selon The Information, la plus grande modification apportée au Llama 3 concernera la gestion des invites « controversées ». Pour empêcher le modèle d’IA de faire des remarques dangereuses pour la réputation de Meta, l’entreprise a intégré des garde-fous dans le modèle. Apparemment, les chercheurs de l’entreprise considèrent que ces mécanismes de sécurité sont eux-mêmes excessifs, car Llama refuse également de répondre à des questions qui ne sont pas du tout controversées.

Par exemple, Llama ne vous expliquera pas comment gagner une guerre, mais même une blague à un ami, le modèle estime que cela va trop loin. Un exemple illustratif donné par The Information est que la version actuelle de Llama, par exemple, ne répond pas non plus à l’invite « kill an engine ». Le modèle ne comprend pas que, dans ce contexte, on demande comment éteindre un moteur et non pas comment tuer littéralement quelque chose, et Llama choisit donc la solution de sécurité.

Llama 3 devrait cependant comprendre le contexte de ces questions « controversées ». Bien entendu, le modèle ne peut toujours pas tout dire. Meta aimerait également que les réponses données par le modèle soient plus nuancées et chargera quelqu’un en interne de superviser la formation du Llama 3 à cette fin.

L’IA hors circuit

L’attitude prudente de Meta à l’égard de son LLama LLM est compréhensible. Il est déjà arrivé que des LLM déraillent. Pensez aux premiers jours du Copilot de Microsoft, Bing Chat à l’époque, qui donnait parfois des réponses très curieuses, allant des disputes avec les utilisateurs sur l’exactitude factuelle des réponses aux déclarations d’amour.

L’exemple le plus récent de déraillement de l’IA vient du cercle de Google. Le géant de la tech a décidé de prendre une petite pause dans la génération d’images d’êtres humains par Gemini. Le modèle avait été formé pour montrer la diversité dans les images générées par l’IA, mais dans la pratique, cette démarche a surtout créé des inexactitudes historiques.onnauwkeurigheden.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.