Nouvelles Du Monde

Lisa Su a présenté l’actualité des serveurs et de l’IA : XPU 3 ans et plus avant Intel

Lisa Su a présenté l’actualité des serveurs et de l’IA : XPU 3 ans et plus avant Intel

Epyc Bergame

Epyc a été officiellement introduit Bergame, qu’AMD livre déjà à certains clients. Nous avons déjà couvert ce processeur en détail, donc juste un bref récapitulatif : Systèmes cloud, jusqu’à 128 cœurs C’était 4c:

Grâce à des optimisations et à une mise en œuvre retravaillée, ceux-ci sont nettement plus petits que Zen 4donc deux fois plus peuvent tenir sur un chiplet de taille similaire sans affecter la compatibilité des équipements et des logiciels.

Il y avait des informations qui C’était 4c contient un cache L3 plus rapide que Zen 4ce qui est probablement partiellement compensé par sa plus faible capacité.

ÉpycIdentifiant. / vl.base / boost all-core / single-core.Cache L3PDT
9754128 / 2562,25 / 3,1 / 3,1 GHz256 Mo360W
9754S128 / 1282,25 / ? / 3,1 GHz256 Mo360W
9734112 / 2242,2 / 3,0 / 3,0 GHz256 Mo320W

3 modèles Epyc sont sortis Bergame, Epyc 9754 avec 128 cœurs et 256 threads, qui est le modèle haut de gamme. De plus, l’Epyc 9754S, qui possède également 128 cœurs, mais dispose d’un SMT inactif, offre en d’autres termes 128 threads. Cela peut être utilisé pour les charges de travail cloud qui sont particulièrement sensibles aux ressources matérielles partagées, où une tâche peut affecter négativement les performances d’une autre tâche (SMT est le partage de facto d’un cœur physique entre deux threads/tâches). Le troisième modèle est l’Epyc 9734 avec 112 cœurs actifs / 224 threads. Nous pouvons facilement calculer que cette configuration peut être obtenue en utilisant 8 chiplets avec 14 cœurs actifs (sur 16), ou 7 chiplets avec tous les 16 cœurs actifs. Dans ce cas, ce sera la première configuration, car la spécification inclut un cache L3 de 256 Mo, qui ne peut être atteint qu’en installant les 8 chiplets.

Lire aussi  Le Mac fête ses 40 ans : comment le PC rebelle d'Apple a failli échouer encore et encore

Bergame selon les tests d’AMD, il atteint des performances cloud 1,6 à 2,6 fois supérieures à celles des Xeons les plus puissants d’Intel.

Epyc Gênes-X

Déjà sorti Gênes équipé du V-cache de seconde génération = Gênes-X. Donc jusqu’à 96 cœurs / 192 threads et jusqu’à 1152 Mo de cache L3.

La combinaison d’une nouvelle architecture, d’un V-cache de deuxième génération et d’un plus grand nombre de cœurs / d’une plus grande capacité de cache L3 permet à Epyc Gênes-X atteindre des performances jusqu’à 1,6 à 5,7 fois supérieures à celles de la génération précédente, Epyc Milan-X.

Dans la configuration à 32 cœurs par rapport au Xeon 8462Y à 32 cœurs, il offre des performances environ 2 fois plus élevées dans les calculs techniques.

ÉpycIdentifiant. / vl.base / boost all-core / single-core.Cache L3PDT
9684X96 / 1922,55 / 3,42 / 3,7 GHz1152 Mo400W
9384X32 / 643,1 / 3,5 / 3,9 GHz768 Mo320W
9184X16 / 323,55 / 3,85 / 4,2 GHz768 Mo320W

Trois modèles sont sortis avec une disponibilité immédiate : Avec 96, 32 et 16 cœurs.

DPU P4

Cela fait seulement un an qu’AMD a finalisé l’acquisition de Pensando, une société spécialisée dans les solutions réseau avancées. Son processeur réseau (DPU, unité de traitement de données) P4 est perçu par AMD comme un élément pouvant augmenter significativement les performances et la sécurité des solutions cloud.

Lire aussi  L'agence spatiale japonaise renonce à l'atterrissage d'une sonde lunaire

Avec le concept classique, les frais généraux tels que le pare-feu, le chiffrement et le NAT (traduction d’adresses réseau) ont lieu au niveau des cœurs x86, ce qui, dans certains types de déploiement, peut signifier que jusqu’à un tiers des cœurs x86 (CPU) sont chargés avec aérien.

AMD offre la possibilité de déplacer ces tâches (et d’autres) vers le DPU, qu’il considère, sous la forme de P4, comme le plus avancé du marché.

Instinct MI300

Lorsque AMD a taquiné l’Instinct MI300 en mai en conjonction avec le prochain supercalculateur El Capitan, la variante MI300 a été spécifiquement mentionnéeUN, qui suggérait qu’il y aurait plus de versions de l’Instinct MI300. Cela a été officiellement confirmé et les différences entre le MI300A et le MI300X ont été introduites.

Instinct MI300Asur lequel le supercalculateur EL Capitan mentionné sera créé, contient les deux cœurs de processeur (24 cœurs Zen 4), ainsi que des cœurs GPGPU / CDNA 3. Bien que jusqu’à présent basé sur les images, il a été supposé que l’accélérateur porte 4 puces de 5 nm, dont 1 est un processeur (24 cœurs Zen 4) et trois de calcul (CDNA 3), en fait il ne s’agit pas de quatre chiplets, car ces quatre parties ne sont pas monolithiques, mais constituées de multiples chiplets situés à proximité les uns des autres. La partie processeur se compose de trois chiplets (soit huit cœurs chacun, similaire aux Epycs Gênes) et trois parties graphiques sont constituées de deux chiplets d’ADNc 3 chacune, c’est-à-dire que MI300A porte 6 chiplets d’ADNc 3 au total. Le nombre total de chiplets (dont 6nm) est de 13, le nombre de transistors correspond à 146 milliards. AMD disposera ainsi du premier XPU (« Computing APU ») au monde avec au moins trois ans d’avance sur Intel, qui a annulé ses plans initialement prévus pour 2024 et ne liste plus aucun XPU dans la feuille de route même en 2025.

Lire aussi  « ChatGpt peut désormais voir et parler » : voici comment cela fonctionne

Instinct MI300X est nouveau, cette variante n’a pas encore été entendue. Par rapport au MI300A, il remplace 3 chiplets CPU par deux chiplets CDNA 3, il fonctionnera donc classiquement comme un accélérateur (auquel il faudra rajouter du processeur). Il contient donc au total 12 chiplets (6 5nm CDNA 3). Cependant, ce n’est pas la seule différence. AMD a augmenté la capacité de la mémoire HBM3 de 128 Go à 192 Go (avec un débit de 5,2 To/s), ce qui peut accueillir même les modèles de langage les plus exigeants pour l’IA, avec une certaine marge de développement. Les chiplets sont connectés par Infinity Fabric avec un débit de 896 Go/s.

Basé sur le MI300X, AMD construira ensuite un système appelé AMD Instinct Platform offrant 8 de ces accélérateurs, 1,5 To de HBM3 et une conception embarquée standard pour les modules OAM.

AMD expédie déjà l’Instinct MI300A sous forme d’échantillons, les échantillons Instinct MI300X commenceront à être expédiés au cours de l’été (Q3) et les unités produites en série iront dans le monde au quatrième trimestre.

2023-06-14 01:01:48
1686723580


#Lisa #présenté #lactualité #des #serveurs #lIA #XPU #ans #avant #Intel

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT