OpenAI utilisera désormais l’infrastructure d’Amazon Web Services (AWS) pour entraîner ses modèles d’IA. Le contrat pluriannuel comprend un investissement de 38 milliards de dollars.
OpenAI et AWS signent un accord cloud de 38 milliards de dollars. Dans le cadre de cet accord, OpenAI obtient un accès direct à la capacité de calcul d’AWS. Cela inclut notamment des serveurs Amazon EC2 Ultra équipés de centaines de milliers de GPU Nvidia. L’infrastructure est conçue pour être évolutive jusqu’à des dizaines de millions de CPU, nécessaires pour l’entraînement des modèles d’IA générative et l’exécution de charges de travail agentiques.
Accès à l’infrastructure
L’infrastructure proposée par AWS comprend des systèmes interconnectés à faible latence. Cette configuration est destinée à diverses applications, telles que l’exécution d’inférences ChatGPT et l’entraînement de futurs modèles d’IA. Les premières capacités seront déployées avant la fin de 2026, avec une expansion supplémentaire prévue à partir de 2027.
lire aussi
OpenAI finalise sa restructuration en société à but lucratif
AWS et OpenAI collaboraient déjà via Amazon Bedrock. Des modèles de base OpenAI y ont été mis à disposition des clients professionnels plus tôt cette année. Des entreprises telles que Comscore, Thomson Reuters et Peloton utilisent ces modèles pour le codage, l’analyse et la résolution de problèmes, entre autres.
