Red Hat lance Red Hat AI 3 sur le marché. Cette plateforme combine les versions IA de RHEL et OpenShift, entre autres, en un ensemble qui doit simplifier le déploiement de l’IA en production.
Red Hat lance Red Hat AI 3. Avec cette mise à jour de sa plateforme IA, le spécialiste du logiciel open source souhaite aider les entreprises à déployer avec succès l’inférence IA à grande échelle en production, dans des environnements hybrides.
La plateforme est construite sur des versions IA de technologies reconnues. Elle combine les technologies de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) et Red Hat OpenShift AI. L’interaction des variantes IA des solutions open source éprouvées de Red Hat doit permettre de faire passer plus rapidement les charges de travail IA de la preuve de concept à la production.
MaaS, Hub et Studio
Red Hat souligne quatre innovations importantes avec le lancement de Red Hat AI 3 :
- Model as a Service (ou MaaS) : Red Hat permet ainsi de gérer centralement les modèles IA et de les mettre à disposition à la demande au sein de l’organisation, tant pour les développeurs que pour les applications. Les entreprises conservent ainsi le contrôle sur leurs données et leur infrastructure.
- AI Hub : Avec l’AI Hub, les utilisateurs accèdent à un catalogue organisé de modèles et d’outils pour gérer le cycle de vie complet des modèles. Le hub contient également un environnement pour gérer le déploiement de modèles via OpenShift AI.
- Gen AI Studio : le Gen AI Studio s’adresse aux développeurs. Le studio offre un espace où ils peuvent expérimenter avec des modèles et construire des applications basées sur des modèles de langage de grande taille et des techniques comme la génération augmentée par récupération (RAG).
- Nouveaux modèles : Red Hat ajoute également des LLM optimisés, notamment gpt-oss d’OpenAI, DeepSeek-R1 et des modèles vocaux comme Whisper et Voxtral Mini.
OpenShift AI
Dans Red Hat AI 3, un rôle important est réservé à Red Hat OpenShift AI 3.0. OpenShift AI 3.0 prend désormais également en charge les applications IA basées sur des agents. Red Hat introduit pour cela une API unifiée basée sur la Llama Stack et adopte le Model Context Protocol (MCP). Ce protocole aide à la communication entre les modèles d’une part et les outils et données externes d’autre part. Il gagne en popularité ces derniers mois et est soutenu par des acteurs importants comme Snowflake et Salesforce.
lire aussi
Red Hat Summit Bruxelles : des valeurs de l’open source à un catalyseur concret de l’IA
De plus, Red Hat AI 3 contient une boîte à outils pour la personnalisation de modèles, construite sur la technologie InstructLab. Cela permet aux développeurs de traiter leurs propres données, de générer des données synthétiques et d’entraîner et évaluer des modèles.
De l’idée à l’application efficace
Pour Red Hat AI 3, Red Hat met l’accent sur l’inférence. Avec l’intégration de llm-d, une extension du projet vLLM, la plateforme prend désormais également en charge l’inférence distribuée sur Kubernetes. Cela doit conduire à des coûts réduits, des temps de réponse plus rapides et une utilisation plus efficace des accélérateurs comme les GPU de Nvidia et AMD.
Red Hat reconnaît qu’il est complexe de déployer avec succès des projets IA en production. Avec Red Hat AI 3, l’entreprise espère offrir une plateforme qui supprime les obstacles. Red Hat espère que la combinaison d’outils et d’intégrations, construite sur une base Linux connue et fiable, suffira aux grandes entreprises pour transformer leurs concepts IA en applications qui apportent une valeur ajoutée en production et génèrent finalement des revenus.
Le lancement de la plateforme s’inscrit dans l’ambition plus large de Red Hat. L’entreprise souhaite se positionner de plus en plus comme un spécialiste de l’IA et pas seulement comme un acteur open source important.
