AMD convoite la couronne CPU d’Intel et le sceptre GPU de Nvidia

Les produits les plus puissants, le prix le plus élevé et la meilleure technologie sous-jacente : AMD démontre avec de nombreuses raisons qu’il est un acteur majeur sur le marché des processeurs et de l’intelligence artificielle. Les annonces dans ce domaine se succèdent rapidement à San Francisco. L’ambition sera-t-elle rentable ?

Lors de la première du « Data Centre and AI Technology » à San Francisco, aux États-Unis, les cœurs et la mémoire HMB3 sont nombreux. Lisa Su, PDG, occupe le devant de la scène en expliquant de manière très personnelle les ambitions d’AMD pour l’avenir à la presse internationale réunie pour l’occasion. « Aujourd’hui est un jour important pour nous, car nous franchissons une étape importante pour faire d’AMD le partenaire de choix pour les centres de données et l’IA. » L’entreprise a faim, et ne voit pas pourquoi elle ne serait pas au top de la chaîne alimentaire avec ses CPU ainsi que ses GPU.

Une guerre sur tous les fronts

C’est plus vite dit que fait. Alors que Pat Gelsinger, PDG d’Intel, ferme des divisions partout pour réorienter l’entreprise vers son cœur de métier (jeu de mots), AMD opte pour une guerre sans merci à San Francisco. Su et ses compagnons se disputent le rôle de leader avec des CPU, des GPU, des FPGA et des DPU. Le machin peut faire des maths et il contient un microtransistor ? Alors, AMD ambitionne d’avoir la meilleure variante sur le marché.

La définition de « meilleur » est très subjective, mais chez AMD, la ligne est bien définie. Bien que le fabricant annonce systématiquement des performances spectaculaires pour tous ses nouveaux composants, c’est en fait le coût du cycle de vie (CCV) pour le client qui est essentiel. AMD veut faire profiter ses clients d’un maximum de puissance, et le faire au prix le plus compétitif et avec la consommation d’énergie la plus faible possible.

Bergamo

L’arme pas trop secrète du fabricant : les chiplets. Lors de sa présentation, Su a souligné à plusieurs reprises l’importance de la technologie chiplet dans l’expansion rapide du portefeuille d’AMD. La plupart des annonces faites lors de la première sont dues aux chiplets en tant que philosophie de base du design.

Par exemple, AMD présente ses premiers GPU pour centres de données conçus spécifiquement pour les charges de travail natif cloud : Epyc Bergamo. Bergamo repose sur une variante des cœurs Zen 4 des processeurs Epyc de quatrième génération universels : Zen 4c. Toutefois, Mike Clark, architecte Zen, explique que Bergamo avec Zen 4c n’est guère différent de Genoa avec Zen 4.

Le potentiel du chiplet

« Pour le Zen 4c, le cache disponible par cœur et la fréquence d’horloge ont été réduits, rendant le cœur lui-même plus petit », explique-t-il. « Résultat : deux fois plus de cœurs sur un CCD (Core Chiplet Die). » Pour Bergamo, AMD utilise une puce Genoa et remplace les CCD Zen 4 par des CCD Zen 4c. Tout le reste, y compris la partie E/S, reste identique, préservant ainsi la compatibilité des plates-formes. Et plus important encore, les coûts de R&D sont encore relativement limités pour AMD.

Un cœur économique ne nécessite pas une architecture entièrement nouvelle.

Mike Clark, Architecte Zen

« Un cœur économique ne nécessite pas une architecture entièrement nouvelle », rigole Clark. Parallèlement, sur scène, Su peut présenter de belles données de référence dans lesquelles Bergamo surpasse non seulement les puces équivalentes d’Intel, mais aussi le CPU Altra d’Ampere natif cloud, construit sur ARM.

Dan McNamara, vice-président senior de la division Serveurs d’AMD, apparaît brièvement sur la scène principale pour lancer le Genoa-X. Cette variante d’Epyc intègre jusqu’à 1,1 Go de cache, mais n’est pas fondamentalement différente d’Epyc Genoa. Le cache a été remplacé par le 3D V-Cache de deuxième génération d’AMD, mais la structure de la puce modulaire Epyc a été conçue pour cela dès le départ. Les ingénieurs pouvaient simplement remplacer le composant de cache et voilà : une nouvelle puce pour de nouvelles charges de travail.

Epyc Genoa et Genoa-X sont presque identiques, à l’exception du cache.

Plusieurs MI300

Passons donc au domaine de l’IA. « L’IA est la grande révolution de cette époque », selon Su. La demande de puissance de calcul pour l’entraînement et l’inférence de l’IA est en tout cas plus importante qu’AMD ne l’avait prédit il y a peu lorsqu’elle a proposé l’Instinct MI300. Cette puce serait un APU sur lequel le GPU et le CPU seraient combinés en un seul.

Aujourd’hui, cet appareil s’appelle MI300A, et la puissance de son accélérateur n’est pas suffisante pour les tâches les plus lourdes. « La solution n’était pas si complexe, selon Brad McCredie, vice-président du centre de données et du traitement accéléré. La fabrication du MI300X a été relativement simple. Nous avons toujours eu cette option à l’esprit. On a enlevé les cœurs Zen 4 de l’Instinct MI300A et remplacé ces cœurs par des cœurs CDNA 3 supplémentaires. »

Grâce à l’approche chiplet, AMD a rapidement conçu un accélérateur d’IA classique. Le concepteur de la puce a ensuite intégré 192 Go de HBM 3 dans la puce. Su est ravie de montrer ce que cela signifie lors d’une démonstration. « Tout le modèle Falcon-40B-AI rentre dans la mémoire de la puce, de sorte qu’un Instinct MI300X suffit pour l’inférence. »

Le MI300X possède suffisamment de mémoire pour accueillir des modèles d’IA de grande taille, comme AMD le démontre sur scène.

Suffisant pour Frontier

Bien entendu, les puces puissantes ne valent rien si personne ne les adopte. Et AMD l’a bien compris. C’est pourquoi Su et ses camarades consacrent beaucoup de temps à la mise au point d’un cadre logiciel mature. Le logiciel ROCm d’AMD passe maintenant à la cinquième version, et s’il est suffisant pour le supercalculateur exascale Frontier, il devrait l’être aussi pour vous, d’après ce que l’on peut lire entre les lignes.

AMD s’oriente résolument vers des collaborations avec le monde open source dans son offre de logiciels d’IA, cherchant à se différencier de Nvidia. Clément Delangue, PDG de « Hugging Face, est présent pour en expliquer l’importance. Hugging Face est un peu comme le GitHub pour les modèles d’IA ouverts », explique-t-il. « Nous travaillons désormais avec AMD pour garantir un fonctionnement transparent des modèles de Hugging Face sur le matériel AMD. »

L’IA dans les ordinateurs portables

L’intégration dans le monde de l’open source devrait susciter l’intérêt d’un public plus large pour le matériel d’accélération d’AMD. Mais il faut y travailler, car Nvidia domine le marché avec une part d’environ 80 %.

En revanche, Nvidia n’a pas de puces pour les ordinateurs portables. AMD en possède avec Ryzen et Ryzen Pro et se lance dans l’intégration d’un moteur Ryzen AI Engine. C’est un chiplet qui sert de NPU (« Neural Processing Unit ») intégré pour accélérer l’IA sur les ordinateurs portables. On travaille actuellement sur les premières implémentations.

Ce n’est pas par hasard que l’architecture du NPU est similaire à celle de la série Instinct MI300. Les chiplets et l’unité de l’architecture devraient convaincre le marché. « Le moteur nous permettra d’innover plus rapidement », déclare David McAfee du Ryzen Product Group. « La même architecture d’IA est adoptée du point final au cloud. »

DPU programmable

Parlons maintenant du DPU. AMD n’en parle pas beaucoup à San Francisco, même si AMD Pensando est présenté au public. Pensando est une acquisition par AMD, qui a permis au concepteur de puces de conquérir d’un seul coup le segment supérieur du marché des DPU.

Beaucoup de clients importants passent sur scène pour complimenter Pensando. La programmabilité des DPU permet de nouveaux modes de sécurité et est à elle seule à l’origine de millions d’euros d’économies.

AMD elle-même conserve une fréquence d’horloge prévisible. L’entreprise commercialise systématiquement ses innovations selon la feuille de route qu’elle a proposée. Sa conception avancée des chiplets joue un rôle important à cet égard.

Les meilleurs composants à tous les niveaux

Le résultat est impressionnant. Du côté des processeurs, il y a Epyc. Epyc Genoa est le processeur le plus puissant pour les charges de travail générales, Genoa-X prend en charge les charges de travail techniques et Bergamo adopte la technologie natif cloud.

Pour l’IA, il y a l’APU Instinct MI300A et l’accélérateur MI300X, associés à un écosystème ouvert de logiciels. Le moteur Ryzen AI fait passer l’architecture de l’IA du cloud au point final : une unité inégalable à ce jour.

AMD n’a pas non plus oublié le réseau. AMD Pensando combine DPU et ASIC en un ensemble capable de prendre en charge les charges de travail de sécurité et de virtualisation des unités centrales de serveurs. Avec l’architecture Giglio, son successeur frappe déjà à la porte, mais les DPU Giglio ne poseront pas de problèmes de compatibilité avec les DPU Pensando existants.

Confiance dans les référentiels

Les hauts responsables d’AMD lancent une série de comparaisons pour souligner la supériorité de leur matériel par rapport aux équivalents d’Intel et de Nvidia. Mais ce n’est pas la haute performance qui devrait conquérir le marché à terme. Outre les chiplets, un autre terme revient sans cesse : le coût du cycle de vie (CCV). Tous les composants d’AMD offrent généralement les meilleures performances pour leur prix, et généralement aussi par watt. « Le CCV nous donne un avantage », souligne McCredie. « Et certainement en termes d’inférence par dollar. »

Le CCV nous donne un avantage. Et certainement en termes d’inférence par dollar.

Brad McCredie, vice-président des centres de données et du traitement accéléré

À San Francisco, le résultat se fait sentir. AMD rayonne de confiance. Tous les produits sont prêts à servir les clients de tous les secteurs et ceux qui y souscrivent obtiennent des performances élevées pour un coût total faible sur la durée de vie d’un composant. Comme on pouvait s’y attendre, sa part de marché s’accroît, bien qu’AMD mange encore beaucoup moins de gâteau qu’Intel ou Nvidia.

Les clients suivent-ils ?

Peut-être il est déjà temps de couronner AMD comme roi des processeurs et empereur de l’IA, mais on est loin du compte. Lisa Su, PDG d’AMD, raconte une histoire fascinante. De plus en plus de serveurs et d’instances équipés de processeurs AMD apparaissent sur le champ de bataille et la progression ne s’arrêtera pas tout de suite. Pourtant, la première du « Data Centre and AI Technology » à San Francisco est l’événement d’un outsider, injustifié ou pas.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison