Avec plus de douze millions d’utilisateurs et des millions de modèles d’IA ouverts, Hugging Face est peut-être un acteur plus important qu’OpenAI ou Anthropic. Quel rôle la plateforme joue-t-elle dans l’écosystème de l’IA ?
Hugging Face existe depuis près de dix ans et est devenu un acteur central de l’écosystème mondial de l’IA. Des noms tels que OpenAI, Google et Anthropic sont désormais largement connus du grand public, mais Hugging Face se positionne plutôt comme une plateforme ouverte pour les créateurs d’IA.
Lors d’AWS Re:Invent 2025, nous nous entretenons avec Jeff Boudier, chef de produit chez l’entreprise. Comment le rôle de la plateforme évolue-t-il pour ses 12 millions d’utilisateurs ? « Hugging Face est la principale plateforme ouverte pour les créateurs d’IA », déclare M. Boudier. « Chaque jour, plus de douze millions de scientifiques des données, de chercheurs, d’ingénieurs en apprentissage automatique et, de plus en plus souvent, de développeurs de logiciels utilisent notre plateforme. »
Hugging Face est axé sur la transparence. Les utilisateurs peuvent y trouver, partager et utiliser des modèles d’IA, des ensembles de données et des applications. C’est différent des fournisseurs commerciaux qui misent principalement sur un petit nombre de modèles propriétaires. « Si vous voulez utiliser un modèle ouvert, vous utilisez Hugging Face », affirme M. Boudier. « C’est l’endroit où tous ces modèles sont hébergés et partagés. » Comparez un peu Hugging Face à Github, mais pour l’IA.
lire aussi
Hugging Face : l’alternative ouverte dans le paysage de l’IA
Des millions de modèles
L’une des principales différences avec les grandes marques d’IA réside dans l’échelle et la diversité. « OpenAI propose peut-être cinq modèles », explique M. Boudier. « Nous en proposons des millions. » Plus de deux millions de modèles publics sont disponibles sur la plateforme Hugging Face. De plus, il existe des millions de modèles privés, développés au sein des organisations. « Plus de 300 000 organisations sont actives sur Hugging Face et collaborent en équipe sur des modèles privés. »
Cette énorme quantité de modèles se traduit également par des applications variées. Selon M. Boudier, c’est une idée fausse d’assimiler l’IA aux chatbots et aux grands modèles linguistiques (LLM). « Une fausse image s’est créée selon laquelle l’IA est toujours des LLM, l’IA est bien plus large que cela. Les LLM ne sont qu’un cas d’utilisation, et peut-être le plus ennuyeux. »
Sur Hugging Face, on trouve des modèles d’IA pour le texte, la parole, l’image, la vidéo et même les données 3D. Ils sont même souvent spécialisés par secteur. « Si vous créez une application pour les juristes, vous voulez bien sûr un modèle qui soit exceptionnellement bon dans le contenu juridique », explique-t-il.
D’une plateforme de recherche à un environnement de développement
Lorsque M. Boudier a commencé chez Hugging Face il y a cinq ans, l’accent était principalement mis sur les chercheurs en IA. « C’était alors surtout la référence pour les personnes qui construisaient les grands modèles », dit-il. Depuis, la plateforme a fortement évolué. D’abord, il y a eu les scientifiques des données qui ont adapté les modèles aux données de l’entreprise, puis les ingénieurs en apprentissage automatique qui ont dû passer à l’échelle, et maintenant Hugging Face voit de plus en plus souvent des développeurs de logiciels sur la plateforme.
« L’IA est désormais devenue la manière standard de construire la technologie », affirme M. Boudier. « Vous ne commencez plus avec mille lignes de code, mais avec un modèle d’IA. » Ce changement explique pourquoi Hugging Face est aujourd’hui également attrayant pour les équipes de logiciels classiques.
lire aussi
Hugging Face : l’alternative ouverte dans le paysage de l’IA
Collaboration stratégique avec AWS
Un facteur important de cette croissance est la collaboration avec Amazon Web Services. AWS a été le premier partenaire stratégique de Hugging Face. « Quand j’ai commencé, ma première tâche a été de mettre en place cette collaboration », raconte M. Boudier. Hugging Face fonctionne en grande partie sur l’infrastructure AWS, mais la collaboration va au-delà de cela.
Ensemble, les entreprises travaillent sur des intégrations avec, entre autres, Amazon SageMaker. « Nous facilitons l’utilisation des modèles Hugging Face pour les clients AWS », explique M. Boudier. Cela se fait via des conteneurs prêts à l’emploi, des kits de développement logiciel (SDK) et des liens directs de la plateforme Hugging Face vers les services AWS.
En termes de matériel, la collaboration est forte. « Nous travaillons très intensivement avec les équipes derrière Inferentia et Trainium », explique M. Boudier. « Pour que nos modèles fonctionnent de manière optimale sur les puces AWS et que les clients profitent de leur efficacité. »
Sécurité et responsabilité
La transparence comporte également des risques. Hugging Face investit donc massivement dans la sécurité des modèles publics. « Nous assumons la responsabilité de sécuriser les modèles publics », déclare M. Boudier. Chaque modèle qui est en ligne est automatiquement analysé à la recherche de logiciels malveillants, de clés d’API divulguées et de données personnelles. Pour ce faire, Hugging Face collabore avec des entreprises telles que Protect AI, JFrog et VirusTotal.
L’IA crée aujourd’hui de la valeur de millions de petites manières.
Jeff Boudier, chef de produit AWS
Pour les entreprises, une partie de la responsabilité leur incombe cependant. M. Boudier met en garde contre l’IA fantôme. « Nous voyons des entreprises avec des centaines d’utilisateurs qui utilisent des modèles sans que le service informatique n’ait de visibilité sur cela. » Avec Hugging Face Enterprise, les entreprises peuvent donc définir une politique, des droits d’accès et des journaux d’audit.
Tout le monde peut publier
Comme sur GitHub, tout le monde peut en fait publier un modèle sur Hugging Face. « C’est votre contenu et vous en restez le propriétaire », explique M. Boudier. Les contrôles ne se font toujours qu’après la publication, pas avant. Pour les environnements d’entreprise, il existe des sélections plus strictes. Ainsi, des partenaires tels que Dell et Microsoft présentent à leurs clients des sous-ensembles de modèles qui répondent à des exigences supplémentaires en matière de licences et de sécurité.
« Sur Azure AI Foundry, vous ne voyez que les modèles qui ont passé tous les tests », explique M. Boudier. Cela rend la plateforme adaptée aux environnements réglementés sans pour autant abandonner complètement le caractère ouvert.
L’IA dans tous les secteurs
Selon M. Boudier, il n’y a aucun secteur qui ne tire pas profit de l’IA. « Toutes les industries en profitent », dit-il. Du contrôle de la qualité dans les usines avec la reconnaissance d’images à l’analyse juridique et au traitement de documents. « Les cas d’utilisation sont souvent différents de ce que l’on entend dans les médias. »
lire aussi
Du workflow à la techno : comment Siemens fait travailler l’IA
Cette large utilisation se reflète dans la communauté. « Vous voyez des bibliothèques nationales partager des modèles, mais aussi des constructeurs automobiles et des entreprises de transport maritime », raconte-t-il. Avec douze millions d’utilisateurs, Hugging Face est présent dans le monde entier et dans différents secteurs.
Hype, bulle ou réalité durable ?
Enfin, la question d’une éventuelle bulle de l’IA est abordée. M. Boudier reconnaît qu’il y a un surinvestissement, principalement motivé par le rêve d’une IA générale. « Il y a certainement un surinvestissement dans l’infrastructure », dit-il. En même temps, il voit cela indépendamment de la réalité quotidienne. « L’IA crée aujourd’hui de la valeur de millions de petites manières. »
De nouveaux modèles ouverts apparaissent chaque semaine sur Hugging Face. « Un « moment DeepSeek » se produit ici chaque semaine », dit-il. Cela relativise les ondes de choc à la bourse. Selon M. Boudier, l’infrastructure finira par être utilisée. « Pas pour un seul modèle, mais pour les millions de modèles dont les entreprises ont besoin pour prendre en charge toute leur technologie. »
lire aussi
